Model Manus mencapai kemajuan terobosan, memicu kontroversi jalur perkembangan AI
Baru-baru ini, model Manus mencapai hasil yang mengesankan dalam pengujian benchmark GAIA, dengan kinerja yang melampaui model bahasa besar sekelasnya. Manus menunjukkan kemampuan untuk menyelesaikan tugas kompleks secara mandiri, seperti menangani negosiasi bisnis lintas negara, yang melibatkan analisis ketentuan kontrak, perumusan strategi, dan pengembangan rencana. Dibandingkan dengan sistem tradisional, keunggulan Manus terletak pada pemecahan tujuan yang dinamis, penalaran lintas moda, serta kemampuan pembelajaran dengan penguatan yang ditingkatkan. Model ini dapat memecah tugas kompleks menjadi ratusan sub-tugas yang dapat dilaksanakan, sekaligus menangani berbagai jenis data, dan terus meningkatkan efisiensi pengambilan keputusan serta mengurangi tingkat kesalahan melalui pembelajaran penguatan.
Keberhasilan Manus memicu diskusi di industri tentang jalur pengembangan AI: apakah masa depan menuju ke pola tunggal kecerdasan buatan umum (AGI), atau pola kolaborasi sistem multi-agen (MAS)? Kontroversi ini berasal dari filosofi desain Manus, yang menyiratkan dua kemungkinan arah perkembangan:
Jalur AGI: Meningkatkan kemampuan sistem kecerdasan tunggal secara terus-menerus, sehingga secara bertahap mendekati kemampuan pengambilan keputusan komprehensif manusia.
Jalur MAS: Menjadikan Manus sebagai koordinator super, mengarahkan ribuan agen cerdas di berbagai bidang untuk bekerja sama.
Diskusi ini sebenarnya mencerminkan sebuah kontradiksi inti dalam pengembangan AI: bagaimana menyeimbangkan efisiensi dan keamanan. Seiring sistem kecerdasan tunggal semakin mendekati AGI, risiko ketidaktransparanan dalam proses pengambilan keputusan juga meningkat. Sementara kolaborasi multi-agen dapat mendistribusikan risiko, namun mungkin kehilangan momen pengambilan keputusan yang krusial karena keterlambatan komunikasi.
Kemajuan Manus juga menyoroti potensi risiko dalam perkembangan AI, seperti kebocoran privasi data, bias algoritma, dan serangan adversarial. Misalnya, dalam konteks medis, sistem perlu mengakses data genom sensitif pasien; dalam negosiasi finansial, mungkin melibatkan informasi keuangan perusahaan yang tidak dipublikasikan. Selain itu, dalam proses perekrutan, sistem mungkin menghasilkan bias terhadap kelompok tertentu; dalam peninjauan kontrak hukum, ada kemungkinan tingkat kesalahan tinggi dalam menilai ketentuan industri baru. Yang lebih serius, peretas mungkin mengganggu penilaian sistem dalam negosiasi dengan menyisipkan sinyal audio tertentu.
Tantangan ini menyoroti fakta yang mengkhawatirkan: semakin cerdas sistem AI, semakin luas potensi permukaan serangannya.
Untuk mengatasi tantangan keamanan ini, industri telah mengusulkan berbagai solusi, di mana teknologi enkripsi homomorfik penuh (FHE) dianggap sebagai metode yang menjanjikan. FHE memungkinkan perhitungan data dalam keadaan terenkripsi, yang sangat penting untuk melindungi informasi sensitif dalam sistem AI.
Secara spesifik, FHE dapat meningkatkan keamanan sistem AI dalam beberapa aspek berikut:
Tingkat data: Semua informasi yang dimasukkan oleh pengguna (termasuk ciri biologis, suara, dll.) diproses dalam keadaan terenkripsi, bahkan sistem AI itu sendiri tidak dapat mendekripsi data asli.
Tingkat algoritma: Mewujudkan "pelatihan model terenkripsi" melalui FHE, sehingga bahkan pengembang pun tidak dapat langsung mengamati proses pengambilan keputusan AI.
Tingkat kolaborasi: Komunikasi antara beberapa agen pintar menggunakan enkripsi threshold, bahkan jika satu node disusupi, itu tidak akan menyebabkan kebocoran data global.
Dengan perkembangan cepat teknologi AI, masalah keamanan menjadi semakin penting. Teknologi enkripsi canggih seperti FHE tidak hanya dapat mengatasi tantangan yang dihadapi saat ini, tetapi juga meletakkan dasar keamanan untuk sistem AI yang lebih kuat di masa depan. Di jalan menuju AGI, teknologi keamanan ini tidak lagi menjadi pilihan, melainkan syarat yang diperlukan untuk memastikan operasi sistem AI yang dapat diandalkan.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
17 Suka
Hadiah
17
4
Bagikan
Komentar
0/400
0xSleepDeprived
· 10jam yang lalu
Masih terjebak dalam indikator teknis, cepat atau lambat akan menjadi mesin revolusi.
Lihat AsliBalas0
AirdropHunter007
· 10jam yang lalu
Sekali lagi ada ai yang datang untuk menjadikan suckers.
Lihat AsliBalas0
TokenVelocityTrauma
· 11jam yang lalu
Bikin kepala pusing, apakah ai multi-platform atau satu kesatuan...
Keterobosan model Manus memicu perdebatan tentang jalur pengembangan AI, enkripsi homomorphic sepenuhnya mungkin menjadi kunci.
Model Manus mencapai kemajuan terobosan, memicu kontroversi jalur perkembangan AI
Baru-baru ini, model Manus mencapai hasil yang mengesankan dalam pengujian benchmark GAIA, dengan kinerja yang melampaui model bahasa besar sekelasnya. Manus menunjukkan kemampuan untuk menyelesaikan tugas kompleks secara mandiri, seperti menangani negosiasi bisnis lintas negara, yang melibatkan analisis ketentuan kontrak, perumusan strategi, dan pengembangan rencana. Dibandingkan dengan sistem tradisional, keunggulan Manus terletak pada pemecahan tujuan yang dinamis, penalaran lintas moda, serta kemampuan pembelajaran dengan penguatan yang ditingkatkan. Model ini dapat memecah tugas kompleks menjadi ratusan sub-tugas yang dapat dilaksanakan, sekaligus menangani berbagai jenis data, dan terus meningkatkan efisiensi pengambilan keputusan serta mengurangi tingkat kesalahan melalui pembelajaran penguatan.
Keberhasilan Manus memicu diskusi di industri tentang jalur pengembangan AI: apakah masa depan menuju ke pola tunggal kecerdasan buatan umum (AGI), atau pola kolaborasi sistem multi-agen (MAS)? Kontroversi ini berasal dari filosofi desain Manus, yang menyiratkan dua kemungkinan arah perkembangan:
Jalur AGI: Meningkatkan kemampuan sistem kecerdasan tunggal secara terus-menerus, sehingga secara bertahap mendekati kemampuan pengambilan keputusan komprehensif manusia.
Jalur MAS: Menjadikan Manus sebagai koordinator super, mengarahkan ribuan agen cerdas di berbagai bidang untuk bekerja sama.
Diskusi ini sebenarnya mencerminkan sebuah kontradiksi inti dalam pengembangan AI: bagaimana menyeimbangkan efisiensi dan keamanan. Seiring sistem kecerdasan tunggal semakin mendekati AGI, risiko ketidaktransparanan dalam proses pengambilan keputusan juga meningkat. Sementara kolaborasi multi-agen dapat mendistribusikan risiko, namun mungkin kehilangan momen pengambilan keputusan yang krusial karena keterlambatan komunikasi.
Kemajuan Manus juga menyoroti potensi risiko dalam perkembangan AI, seperti kebocoran privasi data, bias algoritma, dan serangan adversarial. Misalnya, dalam konteks medis, sistem perlu mengakses data genom sensitif pasien; dalam negosiasi finansial, mungkin melibatkan informasi keuangan perusahaan yang tidak dipublikasikan. Selain itu, dalam proses perekrutan, sistem mungkin menghasilkan bias terhadap kelompok tertentu; dalam peninjauan kontrak hukum, ada kemungkinan tingkat kesalahan tinggi dalam menilai ketentuan industri baru. Yang lebih serius, peretas mungkin mengganggu penilaian sistem dalam negosiasi dengan menyisipkan sinyal audio tertentu.
Tantangan ini menyoroti fakta yang mengkhawatirkan: semakin cerdas sistem AI, semakin luas potensi permukaan serangannya.
Untuk mengatasi tantangan keamanan ini, industri telah mengusulkan berbagai solusi, di mana teknologi enkripsi homomorfik penuh (FHE) dianggap sebagai metode yang menjanjikan. FHE memungkinkan perhitungan data dalam keadaan terenkripsi, yang sangat penting untuk melindungi informasi sensitif dalam sistem AI.
Secara spesifik, FHE dapat meningkatkan keamanan sistem AI dalam beberapa aspek berikut:
Tingkat data: Semua informasi yang dimasukkan oleh pengguna (termasuk ciri biologis, suara, dll.) diproses dalam keadaan terenkripsi, bahkan sistem AI itu sendiri tidak dapat mendekripsi data asli.
Tingkat algoritma: Mewujudkan "pelatihan model terenkripsi" melalui FHE, sehingga bahkan pengembang pun tidak dapat langsung mengamati proses pengambilan keputusan AI.
Tingkat kolaborasi: Komunikasi antara beberapa agen pintar menggunakan enkripsi threshold, bahkan jika satu node disusupi, itu tidak akan menyebabkan kebocoran data global.
Dengan perkembangan cepat teknologi AI, masalah keamanan menjadi semakin penting. Teknologi enkripsi canggih seperti FHE tidak hanya dapat mengatasi tantangan yang dihadapi saat ini, tetapi juga meletakkan dasar keamanan untuk sistem AI yang lebih kuat di masa depan. Di jalan menuju AGI, teknologi keamanan ini tidak lagi menjadi pilihan, melainkan syarat yang diperlukan untuk memastikan operasi sistem AI yang dapat diandalkan.