مع توسع تقنية وكلاء الذكاء الاصطناعي (AI agent) بسرعة في وادي السيليكون، حيث بلغت الاستثمارات في عام 2024 نحو 8.2 مليار دولار، فإن هذه الأنظمة المستقلة تتسلل تدريجياً إلى المجالات المالية والبنية التحتية وصنع القرار. ومع ذلك، وراء هذه الثورة التكنولوجية، تبرز قضية رئيسية ولكن غالباً ما يتم تجاهلها: "كيف يمكننا التحقق من أن سلوك وكلاء الذكاء الاصطناعي موثوق؟"
استثمرت وادي السيليكون 8.2 مليار دولار في وكلاء الذكاء الاصطناعي العام الماضي.
قريباً، سوف يتحكمون في أموالنا، والبنية التحتية، وصنع القرار.
ولكن هناك مشكلة واحدة لا يتحدث عنها أحد:
كيف يمكننا التحقق مما إذا كانت وكلاء الذكاء الاصطناعي يقولون الحقيقة؟ pic.twitter.com/zEj7z5mGyX
— سيرجي غوربونوف (@sergey_nog) 22 أبريل 2025
استثمار وادي السيليكون في وكيل الذكاء الاصطناعي، ولكن هل لا يزال أساس الثقة هو "الصندوق الأسود"؟
أشار سيرجي غوربونوف، المؤسس المشارك لشينلينك، في منشور له الليلة الماضية إلى أن الوكلاء الذكاء الاصطناعي، على الرغم من أنهم تم تقديمهم كنظم مستقلة قادرة على إكمال مهام معقدة، إلا أن معظمهم لا يزال يعمل بطريقة "صندوق أسود" - مما يعني أن المستخدمين لا يمكنهم معرفة عملية اتخاذ القرار الداخلية، وعليهم فقط اختيار الثقة العمياء.
يجب أن يتمتع وكيل الذكاء الاصطناعي الذي يتمتع بقدرة مستقلة بخصائص "لا يمكن إيقافه" و"قابل للتحقق" في نفس الوقت، ومع ذلك، فإن الأنظمة الحالية غالبًا لا تفي بهذا المعيار.
(واجهة USB-C في عالم الذكاء الاصطناعي: ما هو بروتوكول السياق النموذجي (MCP)؟ تفسير بروتوكول السياق العالمي لمساعد الذكاء الاصطناعي )
لماذا تعتبر "القابلية للتحقق" هي الضمان الأمني الحقيقي؟
أكد جorbunov أن القابلية للتحقق تعني أن وكلاء الذكاء الاصطناعي بحاجة إلى توضيح "ماذا فعلوا؟ كيف فعلوا ذلك؟ هل امتثلوا للقواعد المحددة؟"
إذا كانت هذه الآليات مفقودة، فإن حصول وكلاء الذكاء الاصطناعي على السيطرة على البنية التحتية الأساسية قد يؤدي إلى مخاطر كبيرة. هذه "فجوة التحقق (verification gap)"، إذا لم يتم التعامل معها بشكل صحيح، قد تصبح خطرًا كامنًا في تطور التكنولوجيا.
ثلاثة أنواع من وكلاء الذكاء الاصطناعي، كل منها له متطلبات تحقق مختلفة
وفقًا لما ذكره Sreeram Kannan مؤسس EigenLayer، يمكن تقسيم وكلاء الذكاء الاصطناعي بناءً على العملاء إلى ثلاث فئات:
وكلاء شخصيون (: الخدمة الرئيسية للأفراد، مثل المساعدين الرقميين، ومتطلبات التحقق منخفضة نسبيًا.
الوسطاء العموميون ): خدمة المجتمع، تحتاج إلى تحقق متوسط الشدة لضمان العدالة والمصداقية.
وكلاء السيادة (: مستقلون تمامًا عن العمليات البشرية، ويجب أن يتمتعوا بأعلى مستوى من قدرات التحقق.
خلال السنوات الخمس المقبلة، قد تتحكم هذه الوكالات السيادية في تريليونات الدولارات من الأصول، وإذا كانت آلية التحقق غير ناضجة بما فيه الكفاية، فسوف تكون كـ "بناء منزل على رمال متحركة".
نظام التحقق من ثلاث طبقات: إعادة بناء الأساس الموثوق لوكلاء الذكاء الاصطناعي
لحل مشكلة التحقق ، اقترح كانان إطار عمل تحقق من ثلاثة مستويات:
التحقق الاستباقي ): إجراء التقييم قبل تنفيذ المهمة.
التحقق بأثر رجعي (: مراجعة دقة المهمة بعد الانتهاء منها.
التحقق المتزامن )Concurrent Verification(: المراقبة المستمرة والتسجيل أثناء تنفيذ المهمة.
تسمح هذه البنية لجعل سلوك الذكاء الاصطناعي شفافًا لزيادة الثقة.
من تعويضات التأمين إلى توقع السوق: التطبيقات العملية لـ AI القابلة للتحقق
ذكر كانان أيضًا التطبيقات المحتملة لوكلاء الذكاء الاصطناعي القابلين للتحقق في معالجة مطالبات التأمين، حيث تتولى شركات التأمين حاليًا دور الإصدار والمراجعة، مما يؤدي غالبًا إلى أزمة ثقة:
من خلال وكلاء الذكاء الاصطناعي القابلين للتحقق، يمكن تحويل إجراءات التعويض إلى تدقيق مستقل، وتنفيذها وتدقيقها من خلال آلية شفافة، مما يعزز العدالة والمصداقية.
علاوة على ذلك، فإن المنصات مثل EigenBets تجمع بين تقنية ZK-TLS وطبقة الاستدلال القابلة للتحقق، مما يجعل سوق التنبؤات أكثر شفافية، ويقلل من الاعتماد على السلطات المركزية.
)سام ألتمان ثلاث ملاحظات: تكلفة تقل بنسبة 10 مرات سنوياً، وكيل الذكاء الاصطناعي يصبح معيار العمل الجديد، والأصول التي لا يمكن استبدالها بالذكاء الاصطناعي ستزداد قيمتها(
البلوك تشين + الذكاء الاصطناعي: خلق تذكرة المستقبل لوكلاء الذكاء الاصطناعي
في مواجهة الأنظمة المعقدة المتزايدة للذكاء الاصطناعي، يعتقد غوربونوف أن تقنية البلوكتشين يمكن أن توفر الأساس اللازم للثقة المشفرة، وتساعد في بناء هيكل تحقق قوي.
دمج وكلاء الذكاء الاصطناعي مع تقنية البلوك تشين لا يعزز فقط من الموثوقية والمرونة، بل يجعل العقود الذكية حقاً "ذكية"، مما يمهد الطريق لتطبيقات الذكاء الاصطناعي في المستقبل.
في نهاية المقال، أرفق غوربونوف أيضًا رابط برنامجه على يوتيوب "مستقبل الذكاء الاصطناعي"، مؤكدًا أن التطورات الرئيسية في وكلاء الذكاء الاصطناعي في المستقبل ليست مجرد بناء نماذج أقوى، ولكنها قادرة على:
إثبات نتائج أفعاله
عرض عملية الاستدلال بشكل شفاف
كسب الثقة من خلال آلية التشفير
وشدد على أنه: "لا يمكن لوكلاء الذكاء الاصطناعي العمل بأمان في الأنظمة المستقبلية إلا من خلال تحقيق هذه الأهداف الثلاثة الكبرى."
تتناول هذه المقالة التحديات المتعلقة بالثقة في الوكلاء المدعومين بالذكاء الاصطناعي، من المستشارين الماليين إلى الأمناء: هل يمكننا أن نثق في القرارات المستقلة للذكاء الاصطناعي؟ ظهرت لأول مرة في أخبار السلسلة ABMedia.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
من المستشار المالي إلى السكرتير، تحديات الثقة في الوكالة الذكية: هل يمكننا الوثوق في اتخاذ القرارات الذاتية للذكاء الاصطناعي؟
مع توسع تقنية وكلاء الذكاء الاصطناعي (AI agent) بسرعة في وادي السيليكون، حيث بلغت الاستثمارات في عام 2024 نحو 8.2 مليار دولار، فإن هذه الأنظمة المستقلة تتسلل تدريجياً إلى المجالات المالية والبنية التحتية وصنع القرار. ومع ذلك، وراء هذه الثورة التكنولوجية، تبرز قضية رئيسية ولكن غالباً ما يتم تجاهلها: "كيف يمكننا التحقق من أن سلوك وكلاء الذكاء الاصطناعي موثوق؟"
استثمرت وادي السيليكون 8.2 مليار دولار في وكلاء الذكاء الاصطناعي العام الماضي.
قريباً، سوف يتحكمون في أموالنا، والبنية التحتية، وصنع القرار.
ولكن هناك مشكلة واحدة لا يتحدث عنها أحد:
كيف يمكننا التحقق مما إذا كانت وكلاء الذكاء الاصطناعي يقولون الحقيقة؟ pic.twitter.com/zEj7z5mGyX
— سيرجي غوربونوف (@sergey_nog) 22 أبريل 2025
استثمار وادي السيليكون في وكيل الذكاء الاصطناعي، ولكن هل لا يزال أساس الثقة هو "الصندوق الأسود"؟
أشار سيرجي غوربونوف، المؤسس المشارك لشينلينك، في منشور له الليلة الماضية إلى أن الوكلاء الذكاء الاصطناعي، على الرغم من أنهم تم تقديمهم كنظم مستقلة قادرة على إكمال مهام معقدة، إلا أن معظمهم لا يزال يعمل بطريقة "صندوق أسود" - مما يعني أن المستخدمين لا يمكنهم معرفة عملية اتخاذ القرار الداخلية، وعليهم فقط اختيار الثقة العمياء.
يجب أن يتمتع وكيل الذكاء الاصطناعي الذي يتمتع بقدرة مستقلة بخصائص "لا يمكن إيقافه" و"قابل للتحقق" في نفس الوقت، ومع ذلك، فإن الأنظمة الحالية غالبًا لا تفي بهذا المعيار.
(واجهة USB-C في عالم الذكاء الاصطناعي: ما هو بروتوكول السياق النموذجي (MCP)؟ تفسير بروتوكول السياق العالمي لمساعد الذكاء الاصطناعي )
لماذا تعتبر "القابلية للتحقق" هي الضمان الأمني الحقيقي؟
أكد جorbunov أن القابلية للتحقق تعني أن وكلاء الذكاء الاصطناعي بحاجة إلى توضيح "ماذا فعلوا؟ كيف فعلوا ذلك؟ هل امتثلوا للقواعد المحددة؟"
إذا كانت هذه الآليات مفقودة، فإن حصول وكلاء الذكاء الاصطناعي على السيطرة على البنية التحتية الأساسية قد يؤدي إلى مخاطر كبيرة. هذه "فجوة التحقق (verification gap)"، إذا لم يتم التعامل معها بشكل صحيح، قد تصبح خطرًا كامنًا في تطور التكنولوجيا.
ثلاثة أنواع من وكلاء الذكاء الاصطناعي، كل منها له متطلبات تحقق مختلفة
وفقًا لما ذكره Sreeram Kannan مؤسس EigenLayer، يمكن تقسيم وكلاء الذكاء الاصطناعي بناءً على العملاء إلى ثلاث فئات:
وكلاء شخصيون (: الخدمة الرئيسية للأفراد، مثل المساعدين الرقميين، ومتطلبات التحقق منخفضة نسبيًا.
الوسطاء العموميون ): خدمة المجتمع، تحتاج إلى تحقق متوسط الشدة لضمان العدالة والمصداقية.
وكلاء السيادة (: مستقلون تمامًا عن العمليات البشرية، ويجب أن يتمتعوا بأعلى مستوى من قدرات التحقق.
خلال السنوات الخمس المقبلة، قد تتحكم هذه الوكالات السيادية في تريليونات الدولارات من الأصول، وإذا كانت آلية التحقق غير ناضجة بما فيه الكفاية، فسوف تكون كـ "بناء منزل على رمال متحركة".
نظام التحقق من ثلاث طبقات: إعادة بناء الأساس الموثوق لوكلاء الذكاء الاصطناعي
لحل مشكلة التحقق ، اقترح كانان إطار عمل تحقق من ثلاثة مستويات:
التحقق الاستباقي ): إجراء التقييم قبل تنفيذ المهمة.
التحقق بأثر رجعي (: مراجعة دقة المهمة بعد الانتهاء منها.
التحقق المتزامن )Concurrent Verification(: المراقبة المستمرة والتسجيل أثناء تنفيذ المهمة.
تسمح هذه البنية لجعل سلوك الذكاء الاصطناعي شفافًا لزيادة الثقة.
من تعويضات التأمين إلى توقع السوق: التطبيقات العملية لـ AI القابلة للتحقق
ذكر كانان أيضًا التطبيقات المحتملة لوكلاء الذكاء الاصطناعي القابلين للتحقق في معالجة مطالبات التأمين، حيث تتولى شركات التأمين حاليًا دور الإصدار والمراجعة، مما يؤدي غالبًا إلى أزمة ثقة:
من خلال وكلاء الذكاء الاصطناعي القابلين للتحقق، يمكن تحويل إجراءات التعويض إلى تدقيق مستقل، وتنفيذها وتدقيقها من خلال آلية شفافة، مما يعزز العدالة والمصداقية.
علاوة على ذلك، فإن المنصات مثل EigenBets تجمع بين تقنية ZK-TLS وطبقة الاستدلال القابلة للتحقق، مما يجعل سوق التنبؤات أكثر شفافية، ويقلل من الاعتماد على السلطات المركزية.
)سام ألتمان ثلاث ملاحظات: تكلفة تقل بنسبة 10 مرات سنوياً، وكيل الذكاء الاصطناعي يصبح معيار العمل الجديد، والأصول التي لا يمكن استبدالها بالذكاء الاصطناعي ستزداد قيمتها(
البلوك تشين + الذكاء الاصطناعي: خلق تذكرة المستقبل لوكلاء الذكاء الاصطناعي
في مواجهة الأنظمة المعقدة المتزايدة للذكاء الاصطناعي، يعتقد غوربونوف أن تقنية البلوكتشين يمكن أن توفر الأساس اللازم للثقة المشفرة، وتساعد في بناء هيكل تحقق قوي.
دمج وكلاء الذكاء الاصطناعي مع تقنية البلوك تشين لا يعزز فقط من الموثوقية والمرونة، بل يجعل العقود الذكية حقاً "ذكية"، مما يمهد الطريق لتطبيقات الذكاء الاصطناعي في المستقبل.
في نهاية المقال، أرفق غوربونوف أيضًا رابط برنامجه على يوتيوب "مستقبل الذكاء الاصطناعي"، مؤكدًا أن التطورات الرئيسية في وكلاء الذكاء الاصطناعي في المستقبل ليست مجرد بناء نماذج أقوى، ولكنها قادرة على:
إثبات نتائج أفعاله
عرض عملية الاستدلال بشكل شفاف
كسب الثقة من خلال آلية التشفير
وشدد على أنه: "لا يمكن لوكلاء الذكاء الاصطناعي العمل بأمان في الأنظمة المستقبلية إلا من خلال تحقيق هذه الأهداف الثلاثة الكبرى."
تتناول هذه المقالة التحديات المتعلقة بالثقة في الوكلاء المدعومين بالذكاء الاصطناعي، من المستشارين الماليين إلى الأمناء: هل يمكننا أن نثق في القرارات المستقلة للذكاء الاصطناعي؟ ظهرت لأول مرة في أخبار السلسلة ABMedia.