Прорыв модели Manus вызвал споры о путях развития ИИ, полностью гомоморфное шифрование может стать ключевым.

Модель Manus достигла прорывного прогресса, вызвав споры о пути развития ИИ

В последнее время модель Manus достигла впечатляющих результатов в бенчмаркинге GAIA, ее производительность превосходит производительность крупных языковых моделей того же уровня. Manus демонстрирует способность самостоятельно выполнять сложные задачи, такие как ведение международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений на нескольких этапах. По сравнению с традиционными системами, преимущества Manus заключаются в динамическом разбиении целей, кросс-модальном выводе и улучшенном обучении с памятью. Она может разбивать сложные задачи на сотни выполняемых подзадач, одновременно обрабатывая множество типов данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.

Успех Manus вызвал обсуждение в отрасли о путях развития ИИ: будущее - это единая модель общего искусственного интеллекта (AGI) или кооперативная модель многопользовательских систем (MAS)? Этот спор возник из концепции дизайна Manus, которая подразумевает два возможных направления развития:

  1. Путь AGI: постепенно повышая способности отдельной интеллектуальной системы, чтобы она постепенно приближалась к комплексным решениям, которые принимает человек.

  2. Путь MAS: Использовать Manus в качестве суперкоординатора, чтобы управлять тысячами специализированных интеллектуальных агентов, работающих совместно.

Это обсуждение на самом деле отражает одну из ключевых противоречий в развитии ИИ: как сбалансировать эффективность и безопасность. С приближением однотипных интеллектуальных систем к AGI возрастает риск непрозрачности их процесса принятия решений. Хотя сотрудничество многоагентных систем может распределить риски, оно может упустить ключевые моменты принятия решений из-за задержек в коммуникации.

Manus приносит рассвет AGI, безопасность ИИ также заслуживает глубоких размышлений

Прогресс Manus также подчеркивает потенциальные риски в развитии ИИ, такие как утечка данных, предвзятость алгоритмов и атаки. Например, в медицинских сценариях системы требуют доступа к чувствительным геномным данным пациентов; в финансовых переговорах могут быть задействованы неопубликованные финансовые сведения компаний. Кроме того, в процессе найма системы могут проявлять предвзятость по отношению к определенным группам; при проверке юридических контрактов может наблюдаться высокая ошибка в интерпретации условий новых отраслей. Более того, хакеры могут вмешиваться в суждения системы в переговорах, внедряя специфические аудиосигналы.

Эти вызовы подчеркивают тревожный факт: чем умнее AI-системы, тем шире их потенциальная поверхность атаки.

Чтобы справиться с этими проблемами безопасности, отрасль предложила множество решений, среди которых технология полностью гомоморфного шифрования (FHE) рассматривается как многообещающий метод. FHE позволяет выполнять вычисления над данными в зашифрованном состоянии, что имеет решающее значение для защиты конфиденциальной информации в системах ИИ.

В частности, FHE может повысить безопасность систем ИИ в следующих аспектах:

  1. Уровень данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т. д.), обрабатывается в зашифрованном состоянии, и даже сама система ИИ не может расшифровать исходные данные.

  2. Алгоритмический уровень: с помощью FHE реализуется "обучение зашифрованной модели", что делает невозможным для разработчиков напрямую наблюдать за процессом принятия решений ИИ.

  3. Уровень взаимодействия: связь между несколькими интеллектуальными агентами осуществляется с использованием порогового шифрования, и даже если один узел будет взломан, это не приведет к утечке глобальных данных.

С быстрым развитием технологий ИИ вопросы безопасности становятся все более важными. Передовые технологии шифрования, такие как FHE, не только решают текущие проблемы, но и закладывают безопасную основу для более мощных систем ИИ в будущем. На пути к AGI эти технологии безопасности становятся не просто опцией, а необходимым условием для надежной работы систем ИИ.

AGI-0.14%
FHE7.9%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Поделиться
комментарий
0/400
0xSleepDeprivedvip
· 10ч назад
Все еще используете технические индикаторы, рано или поздно это станет революционной машиной.
Посмотреть ОригиналОтветить0
AirdropHunter007vip
· 11ч назад
Снова ai пришел, чтобы делать неудачников.
Посмотреть ОригиналОтветить0
TokenVelocityTraumavip
· 11ч назад
Голова кругом, AI многофункциональный или однофункциональный...
Посмотреть ОригиналОтветить0
  • Закрепить