Нові висоти розвитку ШІ: Модель Manus та її викликані роздуми
Нещодавно модель Manus досягла проривних результатів у бенчмаркінгу GAIA, перевершивши за показниками великі мовні моделі того ж класу. Це досягнення означає, що Manus здатна самостійно вирішувати складні завдання, такі як міжнаціональні бізнес-переговори, що охоплюють аналіз контрактів, розробку стратегій та генерування пропозицій.
Переваги Manus в основному проявляються в трьох аспектах: динамічне розкладання цілей, крос-модальне міркування та навчання з підсиленням пам'яті. Він може розбити складні завдання на сотні виконуваних підзавдань, одночасно обробляючи різні типи даних та постійно підвищуючи ефективність прийняття рішень і знижуючи рівень помилок за допомогою навчання з підсиленням.
Цей прогрес знову викликав обговорення в галузі щодо шляхів розвитку штучного інтелекту: чи рухатися в напрямку загального штучного інтелекту (AGI), чи домінувати за допомогою багатосторонніх систем (MAS)?
З точки зору концепції дизайну Manus, це натякає на два можливі напрямки розвитку:
Шлях до AGI: поступове наближення можливостей окремої інтелектуальної системи до комплексної здатності прийняття рішень людиною.
Шлях MAS: використання Manus як суперкоординатора для управління спільною роботою багатьох агентів у різних професійних сферах.
Обговорення цих двох шляхів насправді торкається основної проблеми розвитку ШІ: як досягти балансу між ефективністю та безпекою? З наближенням монолітних інтелектуальних систем до AGI, ризик їх непрозорості у процесі прийняття рішень також зростає. Хоча співпраця багатьох агентів може розподілити ризики, затримка в комунікації може призвести до пропуску ключових моментів прийняття рішень.
Поступ Manus також підкреслює деякі ризики, які в inherent AI development.
Проблеми конфіденційності даних: в медичній, фінансовій та інших сферах системи ШІ потребують доступу до великої кількості чутливої інформації.
Алгоритмічна упередженість: в таких сферах, як управління людськими ресурсами, можуть виникати несправедливі рішення.
Вразливості безпеки: система може бути піддана зловмисним атакам, що призведе до помилок у судженнях.
Ці питання підкреслюють той факт, що чим розумніші є AI системи, тим ширшими є їх потенційні вразливості.
При вирішенні цих проблем технологія повної гомоморфної криптографії (FHE) продемонструвала величезний потенціал. FHE дозволяє виконувати обчислення над даними в зашифрованому стані, що пропонує можливі рішення для проблем безпеки в епоху ШІ:
Дані на рівні: Вся інформація, введена користувачем, обробляється в зашифрованому стані, навіть сама AI-система не може розшифрувати вихідні дані.
Алгоритмічний рівень: реалізація "навчання зашифрованої моделі" через FHE, що захищає процес прийняття рішень AI.
Співпраця: комунікація між кількома агентами використовує порогове шифрування, що підвищує загальну безпеку системи.
З розвитком технологій ШІ, які все більше наближаються до рівня людського інтелекту, стає дедалі важливішим створення потужних систем безпеки. FHE не лише вирішує нинішні проблеми безпеки, але й прокладає шлях для майбутніх потужніших систем ШІ. У процесі переходу до AGI технології безпеки, такі як FHE, відіграватимуть дедалі важливішу роль, ставши невід'ємною гарантією розвитку ШІ.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Модель Manus досягає нових вершин у розвитку ШІ, повністю гомоморфне шифрування демонструє потенціал
Нові висоти розвитку ШІ: Модель Manus та її викликані роздуми
Нещодавно модель Manus досягла проривних результатів у бенчмаркінгу GAIA, перевершивши за показниками великі мовні моделі того ж класу. Це досягнення означає, що Manus здатна самостійно вирішувати складні завдання, такі як міжнаціональні бізнес-переговори, що охоплюють аналіз контрактів, розробку стратегій та генерування пропозицій.
Переваги Manus в основному проявляються в трьох аспектах: динамічне розкладання цілей, крос-модальне міркування та навчання з підсиленням пам'яті. Він може розбити складні завдання на сотні виконуваних підзавдань, одночасно обробляючи різні типи даних та постійно підвищуючи ефективність прийняття рішень і знижуючи рівень помилок за допомогою навчання з підсиленням.
Цей прогрес знову викликав обговорення в галузі щодо шляхів розвитку штучного інтелекту: чи рухатися в напрямку загального штучного інтелекту (AGI), чи домінувати за допомогою багатосторонніх систем (MAS)?
З точки зору концепції дизайну Manus, це натякає на два можливі напрямки розвитку:
Шлях до AGI: поступове наближення можливостей окремої інтелектуальної системи до комплексної здатності прийняття рішень людиною.
Шлях MAS: використання Manus як суперкоординатора для управління спільною роботою багатьох агентів у різних професійних сферах.
Обговорення цих двох шляхів насправді торкається основної проблеми розвитку ШІ: як досягти балансу між ефективністю та безпекою? З наближенням монолітних інтелектуальних систем до AGI, ризик їх непрозорості у процесі прийняття рішень також зростає. Хоча співпраця багатьох агентів може розподілити ризики, затримка в комунікації може призвести до пропуску ключових моментів прийняття рішень.
Поступ Manus також підкреслює деякі ризики, які в inherent AI development.
Проблеми конфіденційності даних: в медичній, фінансовій та інших сферах системи ШІ потребують доступу до великої кількості чутливої інформації.
Алгоритмічна упередженість: в таких сферах, як управління людськими ресурсами, можуть виникати несправедливі рішення.
Вразливості безпеки: система може бути піддана зловмисним атакам, що призведе до помилок у судженнях.
Ці питання підкреслюють той факт, що чим розумніші є AI системи, тим ширшими є їх потенційні вразливості.
При вирішенні цих проблем технологія повної гомоморфної криптографії (FHE) продемонструвала величезний потенціал. FHE дозволяє виконувати обчислення над даними в зашифрованому стані, що пропонує можливі рішення для проблем безпеки в епоху ШІ:
Дані на рівні: Вся інформація, введена користувачем, обробляється в зашифрованому стані, навіть сама AI-система не може розшифрувати вихідні дані.
Алгоритмічний рівень: реалізація "навчання зашифрованої моделі" через FHE, що захищає процес прийняття рішень AI.
Співпраця: комунікація між кількома агентами використовує порогове шифрування, що підвищує загальну безпеку системи.
З розвитком технологій ШІ, які все більше наближаються до рівня людського інтелекту, стає дедалі важливішим створення потужних систем безпеки. FHE не лише вирішує нинішні проблеми безпеки, але й прокладає шлях для майбутніх потужніших систем ШІ. У процесі переходу до AGI технології безпеки, такі як FHE, відіграватимуть дедалі важливішу роль, ставши невід'ємною гарантією розвитку ШІ.