Модель Manus достигает новых высот в развитии ИИ, полностью гомоморфное шифрование демонстрирует потенциал

robot
Генерация тезисов в процессе

Новый пик развития ИИ: Модель Manus и вызванные ею размышления

Недавно модель Manus достигла прорывного прогресса в бенчмаркинге GAIA, ее производительность превзошла производительность крупных языковых моделей того же уровня. Это достижение означает, что Manus может самостоятельно справляться с такими сложными задачами, как межнациональные деловые переговоры, включая анализ контрактов, разработку стратегий и генерацию предложений.

Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.

Этот прогресс вновь вызвал обсуждение в отрасли о путях развития искусственного интеллекта: следует ли развиваться в направлении общего искусственного интеллекта (AGI) или доминировать многосистемным агентам (MAS)?

С точки зрения концепции дизайна Manus, это подразумевает два возможных направления развития:

  1. Путь AGI: Постоянно повышая способности единой интеллектуальной системы, чтобы она постепенно приближалась к человеческим способностям комплексного принятия решений.

  2. Путь MAS: использовать Manus в качестве суперкоординатора, чтобы управлять совместной работой многочисленных агентов в различных профессиональных областях.

Обсуждение этих двух путей на самом деле затрагивает ключевую проблему развития ИИ: как найти баланс между эффективностью и безопасностью? По мере того, как монолитные интеллектуальные системы все ближе подходят к AGI, риски непрозрачности их процессах принятия решений также возрастают. Хотя кооперация многоагентных систем может снизить риски, она может пропустить ключевые моменты принятия решений из-за задержек в коммуникации.

Manus приносит рассвет AGI, безопасность AI также заслуживает глубоких размышлений

Прогресс Manus также подчеркивает некоторые риски, присущие развитию ИИ:

  1. Проблема конфиденциальности данных: в таких областях, как здравоохранение и финансы, системам ИИ необходимо получать доступ к большому объему чувствительной информации.

  2. Алгоритмическая предвзятость: в таких областях, как управление человеческими ресурсами, могут возникать несправедливые решения.

  3. Уязвимость безопасности: система может подвергнуться злонамеренным атакам, что приведет к ошибочным суждениям.

Эти вопросы подчеркивают один факт: чем умнее система ИИ, тем шире её потенциальная поверхность атаки.

При решении этих проблем технология полностью гомоморфного шифрования (FHE) проявила огромный потенциал. FHE позволяет выполнять вычисления над данными в зашифрованном состоянии, предоставляя возможные решения для вопросов безопасности в эпоху ИИ:

  1. Уровень данных: вся информация, введенная пользователем, обрабатывается в зашифрованном состоянии, даже сам AI-система не может расшифровать исходные данные.

  2. Алгоритмический уровень: реализация "шифрования модели обучения" через FHE, защищая процесс принятия решений ИИ.

  3. Кооперативный уровень: связь между несколькими агентами осуществляется с использованием порогового шифрования, что повышает общую безопасность системы.

С учетом того, что технологии ИИ все больше приближаются к уровню человеческого интеллекта, создание мощной системы безопасности становится все более важным. FHE не только может решить текущие проблемы безопасности, но и проложить путь для более мощных ИИ-систем в будущем. В процессе перехода к AGI такие технологии безопасности, как FHE, будут играть все более важную роль и станут неотъемлемой гарантией развития ИИ.

AGI4.31%
FHE1.89%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 2
  • Поделиться
комментарий
0/400
ChainWatchervip
· 22ч назад
Приватность на первом месте.
Посмотреть ОригиналОтветить0
Подробнее
  • Закрепить