Модель Manus досягає нових вершин у розвитку ШІ, повністю гомоморфне шифрування демонструє потенціал

robot
Генерація анотацій у процесі

Нові висоти розвитку ШІ: Модель Manus та її викликані роздуми

Нещодавно модель Manus досягла проривних результатів у бенчмаркінгу GAIA, перевершивши за показниками великі мовні моделі того ж класу. Це досягнення означає, що Manus здатна самостійно вирішувати складні завдання, такі як міжнаціональні бізнес-переговори, що охоплюють аналіз контрактів, розробку стратегій та генерування пропозицій.

Переваги Manus в основному проявляються в трьох аспектах: динамічне розкладання цілей, крос-модальне міркування та навчання з підсиленням пам'яті. Він може розбити складні завдання на сотні виконуваних підзавдань, одночасно обробляючи різні типи даних та постійно підвищуючи ефективність прийняття рішень і знижуючи рівень помилок за допомогою навчання з підсиленням.

Цей прогрес знову викликав обговорення в галузі щодо шляхів розвитку штучного інтелекту: чи рухатися в напрямку загального штучного інтелекту (AGI), чи домінувати за допомогою багатосторонніх систем (MAS)?

З точки зору концепції дизайну Manus, це натякає на два можливі напрямки розвитку:

  1. Шлях до AGI: поступове наближення можливостей окремої інтелектуальної системи до комплексної здатності прийняття рішень людиною.

  2. Шлях MAS: використання Manus як суперкоординатора для управління спільною роботою багатьох агентів у різних професійних сферах.

Обговорення цих двох шляхів насправді торкається основної проблеми розвитку ШІ: як досягти балансу між ефективністю та безпекою? З наближенням монолітних інтелектуальних систем до AGI, ризик їх непрозорості у процесі прийняття рішень також зростає. Хоча співпраця багатьох агентів може розподілити ризики, затримка в комунікації може призвести до пропуску ключових моментів прийняття рішень.

Manus приносить перші промені AGI, безпека AI також заслуговує на роздуми

Поступ Manus також підкреслює деякі ризики, які в inherent AI development.

  1. Проблеми конфіденційності даних: в медичній, фінансовій та інших сферах системи ШІ потребують доступу до великої кількості чутливої інформації.

  2. Алгоритмічна упередженість: в таких сферах, як управління людськими ресурсами, можуть виникати несправедливі рішення.

  3. Вразливості безпеки: система може бути піддана зловмисним атакам, що призведе до помилок у судженнях.

Ці питання підкреслюють той факт, що чим розумніші є AI системи, тим ширшими є їх потенційні вразливості.

При вирішенні цих проблем технологія повної гомоморфної криптографії (FHE) продемонструвала величезний потенціал. FHE дозволяє виконувати обчислення над даними в зашифрованому стані, що пропонує можливі рішення для проблем безпеки в епоху ШІ:

  1. Дані на рівні: Вся інформація, введена користувачем, обробляється в зашифрованому стані, навіть сама AI-система не може розшифрувати вихідні дані.

  2. Алгоритмічний рівень: реалізація "навчання зашифрованої моделі" через FHE, що захищає процес прийняття рішень AI.

  3. Співпраця: комунікація між кількома агентами використовує порогове шифрування, що підвищує загальну безпеку системи.

З розвитком технологій ШІ, які все більше наближаються до рівня людського інтелекту, стає дедалі важливішим створення потужних систем безпеки. FHE не лише вирішує нинішні проблеми безпеки, але й прокладає шлях для майбутніх потужніших систем ШІ. У процесі переходу до AGI технології безпеки, такі як FHE, відіграватимуть дедалі важливішу роль, ставши невід'ємною гарантією розвитку ШІ.

AGI5.09%
FHE2.67%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 2
  • Поділіться
Прокоментувати
0/400
ChainWatchervip
· 21год тому
Приватність є найважливішою
Переглянути оригіналвідповісти на0
Дізнатися більше
  • Закріпити