دمج الذكاء الاصطناعي مع الأصول الرقمية: كيف تؤثر تقنيات التعلم العميق على صناعة البلوكتشين

الذكاء الاصطناعي × العملات الرقمية: من الصفر إلى القمة

المقدمة

يعتبر بعض الناس أن التطورات الأخيرة في صناعة الذكاء الاصطناعي تمثل الثورة الصناعية الرابعة. لقد أدى ظهور النماذج الكبيرة إلى تحسين كبير في كفاءة مختلف الصناعات، حيث تقدر شركة بوسطن الاستشارية أن GPT قد زادت من كفاءة العمل في الولايات المتحدة بنحو 20%. في الوقت نفسه، تُعرف القدرة العامة التي تجلبها النماذج الكبيرة بأنها نمط تصميم برمجي جديد، حيث كان تصميم البرمجيات السابق يعتمد على الشيفرات الدقيقة، بينما يعتمد الآن على أطر النماذج الكبيرة الأكثر عمومية المدمجة في البرمجيات، مما يجعل هذه البرمجيات تتمتع بأداء أفضل ودعم مدخلات ومخرجات أكثر تنوعًا. لقد جلبت تقنيات التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد امتد هذا الاتجاه أيضًا إلى صناعة العملات المشفرة.

سيتناول هذا التقرير بالتفصيل تاريخ تطور صناعة الذكاء الاصطناعي، وتصنيف التقنيات، وتأثير اختراع تقنيات التعلم العميق على الصناعة. ثم سيتم تحليل سلسة التوريد الخاصة بالتعلم العميق، بما في ذلك وحدات معالجة الرسومات (GPU)، والحوسبة السحابية، ومصادر البيانات، وأجهزة الحافة، بالإضافة إلى الوضع الحالي والاتجاهات المتعلقة بها. بعد ذلك، سيتم مناقشة العلاقة بين العملات المشفرة وصناعة الذكاء الاصطناعي بشكل مفصل، مع توضيح هيكل سلسلة التوريد الخاصة بالذكاء الاصطناعي المرتبطة بالعملات المشفرة.

المبتدئين معلومات عامة丨AI x Crypto: من الصفر إلى القمة

تاريخ تطور صناعة الذكاء الاصطناعي

بدأت صناعة الذكاء الاصطناعي في الخمسينيات من القرن العشرين، ومن أجل تحقيق رؤية الذكاء الاصطناعي، طورت الأوساط الأكاديمية والصناعية العديد من المدارس لتحقيق الذكاء الاصطناعي في ظل ظروف زمنية وخلفيات علمية مختلفة.

تستخدم تقنيات الذكاء الاصطناعي الحديثة بشكل رئيسي مصطلح "تعلم الآلة"، وتتمثل فكرة هذه التقنية في تمكين الآلات من تحسين أداء النظام من خلال التكرار المتكرر في المهام استنادًا إلى البيانات. الخطوات الرئيسية هي إرسال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار نشر النموذج، واستخدام النموذج لإكمال مهام التنبؤ التلقائية.

توجد حاليًا ثلاث مدارس رئيسية في تعلم الآلة، وهي الارتباطية، والرمزية، والسلوكية، التي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك.

! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة](https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201

حاليًا، تحتل النماذج المرتبطة بالشبكات العصبية، المعروفة أيضًا بالتعلم العميق، الصدارة ). السبب الرئيسي هو أن هذا الهيكل يحتوي على طبقة إدخال وطبقة إخراج، ولكن به عدة طبقات مخفية. بمجرد أن يصبح عدد الطبقات وعدد الخلايا العصبية ( والمعلمات ) كافيًا، سيكون هناك فرصة كافية لتلائم المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل معلمات الخلايا العصبية باستمرار، وعندها، بعد معالجة العديد من البيانات، ستصل هذه الخلايا العصبية إلى حالة مثلى ( للمعلمات ). وهذا ما نسميه "القوة الخارقة"، وهو أيضًا مصدر كلمة "عميق" - عدد كافٍ من الطبقات والخلايا العصبية.

على سبيل المثال، يمكن فهمه ببساطة على أنه تم بناء دالة، وعند إدخال X=2 تكون Y=3؛ وعند إدخال X=3 تكون Y=5. إذا أردنا أن تتعامل هذه الدالة مع جميع قيم X، فسيتعين علينا إضافة درجة هذه الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكنني بناء دالة تلبي هذه الشروط على أنها Y = 2X -1، ولكن إذا كانت هناك بيانات لـ X=2، Y=11، فسيتعين علينا إعادة بناء دالة تناسب هذه النقاط الثلاثة. باستخدام GPU للبحث العنيف، نجد أن Y = X2 -3X +5، وهذا يبدو مناسباً، ولكن لا يتعين أن تتطابق تماماً مع البيانات، يكفي أن تلتزم بالتوازن وأن تكون المخرجات متشابهة بشكل عام. هنا، X2 وX وX0 تمثل خلايا عصبية مختلفة، بينما 1 و-3 و5 هي معاملات هذه الخلايا.

في هذه الحالة، إذا قمنا بإدخال كمية كبيرة من البيانات إلى الشبكة العصبية، يمكننا زيادة عدد الخلايا العصبية وتكرار المعلمات لتناسب البيانات الجديدة. بهذه الطريقة، يمكننا تكييف جميع البيانات.

استنادًا إلى تقنية التعلم العميق المعتمدة على الشبكات العصبية ، كان هناك أيضًا عدة تكرارات وتطورات تقنية، مثل الشبكات العصبية المبكرة في الصورة أعلاه، والشبكات العصبية التغذية الأمامية، وRNN، وCNN، وGAN، وأخيراً تطورت إلى النماذج الكبيرة الحديثة مثل GPT التي تستخدم تقنية Transformer، تقنية Transformer ليست سوى اتجاه تطوري واحد من الشبكات العصبية، حيث تمت إضافة محول ( Transformer )، لتحويل جميع الأنماط ( مثل الصوت والفيديو والصور وما إلى ذلك ) إلى قيم رقمية مماثلة. ثم يتم إدخالها في الشبكة العصبية، بحيث يمكن للشبكة العصبية أن تتناسب مع أي نوع من البيانات، مما يعني تحقيق نماذج متعددة الأنماط.

! علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة

شهد تطور الذكاء الاصطناعي ثلاث موجات تقنية، كانت الموجة الأولى في الستينيات من القرن العشرين، بعد عقد من طرح تقنيات الذكاء الاصطناعي، وكانت هذه الموجة ناتجة عن تطور تقنيات الرمزية، التي حلت مشاكل معالجة اللغة الطبيعية العامة والحوار بين الإنسان والآلة. في نفس الفترة، نشأت الأنظمة الخبيرة، وكان من أبرزها نظام DENRAL للخبراء الذي تم إنجازه تحت إشراف جامعة ستانفورد ووكالة الفضاء الأمريكية (ناسا)، حيث يمتلك هذا النظام معرفة قوية جداً في الكيمياء، ويستنتج الإجابات من خلال الأسئلة بطريقة مشابهة للخبراء الكيميائيين، ويمكن اعتبار هذا النظام الخبير في الكيمياء بمثابة دمج لقاعدة معرفة كيميائية ونظام استنتاج.

بعد نظام الخبراء، اقترح عالم الرياضيات والفيلسوف الأمريكي من أصل إسرائيلي جوديا بيرل ( Judea Pearl ) في التسعينيات من القرن العشرين الشبكات البايزية، والتي تُعرف أيضاً بشبكات الإيمان. في نفس الفترة، اقترح بروكس علم الروبوتات القائم على السلوك، مما يمثل ولادة السلوكية.

في عام 1997، هزم جهاز IBM ديب بلو "بلو" بواقع 3.5:2.5 بطل الشطرنج كاسباروف (Kasparov)، وقد اعتُبرت هذه الانتصار علامة فارقة في الذكاء الاصطناعي، حيث شهدت تقنيات الذكاء الاصطناعي ذروة ثانية من التطور.

حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. اقترح عمالقة التعلم العميق Yann LeCun و Geoffrey Hinton و Yoshua Bengio مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الاصطناعية لتعلم تمثيل البيانات. بعد ذلك، تطورت خوارزمية التعلم العميق تدريجياً، من RNN و GAN إلى Transformer و Stable Diffusion، حيث شكلت هذان الخوارزميتان معاً هذه الموجة التقنية الثالثة، وكانت هذه أيضاً فترة ازدهار الارتباطية.

ظهرت العديد من الأحداث البارزة بالتزامن مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:

  • في عام 2011، تغلب IBM Watson( على الإنسان وحصل على البطولة في برنامج اختبار 《危险边缘》)Jeopardy(.

  • في عام 2014، اقترح Goodfellow شبكة الخصومة التوليدية GAN)، التي تُعرف بشبكة الخصومة التوليدية Generative Adversarial Network(، والتي تتعلم من خلال جعل شبكتين عصبيتين تتنافسان ضد بعضهما البعض، مما يمكنها من إنتاج صور تبدو واقعية. في الوقت نفسه، كتب Goodfellow كتابًا بعنوان "Deep Learning"، المعروف باسم الكتاب الزهري، والذي يُعتبر واحدًا من الكتب الأساسية في مجال التعلم العميق.

  • في عام 2015، قدم هينتون وآخرون خوارزمية التعلم العميق في مجلة "Nature"، وقد أثار تقديم هذه الطريقة في التعلم العميق ردود فعل هائلة في الأوساط الأكاديمية والصناعية.

  • في عام 2015، تم إنشاء OpenAI، حيث أعلن ماسك ورئيس Y Combinator ألتمن والمستثمر الملائكي بيتر ثيل) عن استثمار مشترك قدره مليار دولار.

  • في عام 2016، خاضت AlphaGo، المدعومة بتقنية التعلم العميق، معركة شطرنج ضد بطل العالم في الشطرنج ولاعب الشطرنج المحترف ذو التسع دان لي سيدو، وحققت الفوز بنتيجة إجمالية بلغت 4 إلى 1.

  • في عام 2017 ، طورت شركة هانسون روبوتيكس (Hanson Robotics) في هونغ كونغ الصينية روبوتًا شبيهًا بالإنسان يُدعى صوفيا ، والذي يُعتبر أول روبوت في التاريخ يحصل على حالة المواطن من الدرجة الأولى ، ويتميز بتعبيرات وجهية غنية وقدرة على فهم اللغة البشرية.

  • في عام 2017، أصدرت شركة Google الغنية بالمواهب والاحتياطات التقنية في مجال الذكاء الاصطناعي ورقة بحثية بعنوان "الاهتمام هو كل ما تحتاجه"، مما أدى إلى ظهور خوارزمية Transformer وبدء ظهور نماذج اللغة على نطاق واسع.

  • في عام 2018، أصدرت OpenAI نموذج GPT( Generative Pre-trained Transformer) المبني على خوارزمية Transformer، وهو واحد من أكبر نماذج اللغة في ذلك الوقت.

  • في عام 2018، أصدرت فريق جوجل Deepmind نظام AlphaGo القائم على التعلم العميق، الذي يستطيع توقع بنية البروتين، ويعتبر علامة تقدم هائلة في مجال الذكاء الاصطناعي.

  • في عام 2019، أصدرت OpenAI نموذج GPT-2، الذي يحتوي على 1.5 مليار معلمة.

  • في عام 2020، طورت OpenAI نموذج GPT-3، الذي يحتوي على 175 مليار معلمة، وهو أعلى بمعدل 100 مرة من النسخة السابقة GPT-2. استخدم هذا النموذج 570 جيجابايت من النصوص للتدريب، ويمكنه تحقيق أداء متقدم في مهام معالجة اللغة الطبيعية ( مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات ).

  • في عام 2021، أصدرت OpenAI نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، أي عشرة أضعاف GPT-3.

  • تم إطلاق تطبيق ChatGPT المستند إلى نموذج GPT-4 في يناير 2023، وفي مارس وصل عدد مستخدمي ChatGPT إلى مئة مليون، ليصبح التطبيق الأسرع في التاريخ للوصول إلى مئة مليون مستخدم.

  • في عام 2024، أطلقت OpenAI GPT-4 أومني.

ملاحظة: نظرًا لوجود العديد من أوراق الذكاء الاصطناعي، وكثير من المدارس، وتطورات تقنية متنوعة، فإننا هنا نتبع بشكل رئيسي تاريخ تطور التعلم العميق أو الربطية، بينما لا تزال المدارس والتقنيات الأخرى في مرحلة تطور سريع.

! علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة

سلسلة صناعة التعلم العميق

تستخدم نماذج اللغة الكبيرة الحالية جميعها طرق التعلم العميق القائمة على الشبكات العصبية. وقد أدت النماذج الكبيرة بقيادة GPT إلى موجة من الإثارة في مجال الذكاء الاصطناعي، حيث تدفق عدد كبير من اللاعبين إلى هذا المجال. وقد اكتشفنا أيضًا أن السوق تشهد انفجارًا كبيرًا في الطلب على البيانات وقوة الحوسبة. لذلك، في هذا الجزء من التقرير، نستكشف بشكل أساسي سلسلة الصناعة للخوارزميات التعلم العميق. كيف يتكون العرض والطلب في صناعة الذكاء الاصطناعي التي تقودها خوارزميات التعلم العميق، وما هي حالة العرض والطلب، وما هي التطورات المستقبلية.

أولاً، يجب أن نوضح أنه عند تدريب نماذج LLMs الكبيرة التي يقودها GPT المستندة إلى تقنية Transformer، يتم تقسيم العملية إلى ثلاث خطوات.

قبل التدريب، ونظرًا لأنه يعتمد على Transformer، يحتاج المحول إلى تحويل مدخلات النص إلى قيم عددية، وتسمى هذه العملية "Tokenization"، وبعد ذلك تُعرف هذه القيم العددية باسم Tokens. وفقًا للقواعد العامة، يمكن اعتبار كلمة إنجليزية أو حرف واحد بشكل تقريبي كـ Token واحد، بينما يمكن اعتبار كل حرف صيني بشكل تقريبي كـ Tokenين. هذه هي الوحدة الأساسية التي يستخدمها GPT للتسعير.

الخطوة الأولى، التدريب المسبق. من خلال تزويد طبقة الإدخال بما يكفي من أزواج البيانات، مثل (X، Y) المذكورة في الجزء الأول من التقرير، للبحث عن أفضل معلمات لكل خلية عصبية تحت هذا النموذج، في هذه المرحلة تحتاج إلى كمية كبيرة من البيانات، وهذه العملية أيضًا هي الأكثر استهلاكًا للقدرة الحاسوبية، لأنها تتطلب تكرار محاولة خلايا عصبية مختلفة للمعلمات. بعد إتمام تدريب مجموعة البيانات، عادة ما يتم استخدام نفس المجموعة لإعادة التدريب لتكرار المعلمات.

الخطوة الثانية، الضبط الدقيق. الضبط الدقيق هو إعطاء مجموعة صغيرة ولكن ذات جودة عالية من البيانات للتدريب، ستؤدي هذه التغييرات إلى تحسين جودة مخرجات النموذج، لأن التدريب المسبق يتطلب كمية كبيرة من البيانات، ولكن قد تحتوي العديد من البيانات على أخطاء أو جودة منخفضة. يمكن لخطوة الضبط الدقيق تحسين جودة النموذج من خلال البيانات عالية الجودة.

الخطوة الثالثة، التعلم المعزز. أولاً، سيتم إنشاء نموذج جديد تمامًا، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جدًا، وهو ترتيب النتائج الناتجة، لذلك سيكون من السهل نسبيًا تنفيذ هذا النموذج، نظرًا لأن سيناريو الأعمال عمودي جدًا. بعد ذلك، سيتم استخدام هذا النموذج لتحديد ما إذا كانت مخرجات نموذجنا الكبير ذات جودة عالية، مما يعني أنه يمكن استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ( ولكن في بعض الأحيان، يلزم أيضًا مشاركة بشرية لتقييم جودة مخرجات النموذج )

باختصار، خلال عملية تدريب النماذج الكبيرة، تتطلب مرحلة التدريب المسبق كمية كبيرة جداً من البيانات، كما أن القوة الحسابية لوحدات معالجة الرسوميات المطلوبة تكون في أقصى مستوياتها، بينما تحتاج مرحلة الضبط الدقيق إلى بيانات عالية الجودة لتحسين المعلمات، ويمكن للتعلم التعزيزي أن يعيد تكرار المعلمات من خلال نموذج مكافأة لإنتاج نتائج ذات جودة أعلى.

أثناء عملية التدريب، كلما زاد عدد المعلمات، زادت قدرة النموذج على التعميم. على سبيل المثال، في المثال الذي نستخدم فيه الدالة، Y = aX + b، لدينا في الواقع عنصرين عصبيين X و X0، وبالتالي فإن كيفية تغيير المعلمات تؤثر على البيانات التي يمكن نمذجتها، لأنها في جوهرها لا تزال خطًا مستقيمًا. إذا زاد عدد العناصر العصبية، فيمكننا تكرار المزيد من المعلمات، وبالتالي نمذجة المزيد من البيانات. هذه هي الأسباب وراء تحقيق النماذج الكبيرة نتائج مدهشة، وهي أيضًا السبب وراء تسميتها بالنماذج الكبيرة، حيث تتمثل في عدد هائل من العناصر العصبية والمعلمات وكمية هائلة من البيانات، مع الحاجة أيضًا إلى قوة حوسبة هائلة.

لذلك، يتم تحديد تأثير أداء النماذج الكبيرة بشكل رئيسي من ثلاثة جوانب: عدد المعلمات، وكمية وجودة البيانات، وقوة الحوسبة، وهذه الثلاثة تؤثر بشكل مشترك.

GPT-2.6%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 8
  • إعادة النشر
  • مشاركة
تعليق
0/400
SchroedingerAirdropvip
· 08-19 08:31
لا تفهم شيئًا وتريد أن تُستغل بغباء.
شاهد النسخة الأصليةرد0
TestnetNomadvip
· 08-19 04:06
تداول العملات الرقمية炒疯了吧
شاهد النسخة الأصليةرد0
token_therapistvip
· 08-19 03:17
لماذا تجعل الأمور معقدة هكذا؟
شاهد النسخة الأصليةرد0
WalletDetectivevip
· 08-16 23:55
افعلها وانتهى الأمر، دعنا نجعلها مشوشة
شاهد النسخة الأصليةرد0
CoconutWaterBoyvip
· 08-16 23:54
كيف لم أشعر بزيادة كفاءة العمل بنسبة 20؟
شاهد النسخة الأصليةرد0
UnluckyMinervip
· 08-16 23:45
لا يمكنني كسب أي عملات، التعدين صعب جداً
شاهد النسخة الأصليةرد0
Ybaservip
· 08-16 23:38
سباق الثيران 🐂
شاهد النسخة الأصليةرد0
AirdropChaservip
· 08-16 23:35
يبدو وكأنه مبالغ فيه~
شاهد النسخة الأصليةرد0
  • تثبيت