مؤخراً، ركز أسبوع بلوكتشين إسطنبول على اتجاه دمج الذكاء الاصطناعي وWeb3، ليصبح منصة مهمة لمناقشات أمان Web3 هذا العام. في جلستين نقاشيتين، ناقش العديد من الخبراء في الصناعة حالة تطبيقات تقنية الذكاء الاصطناعي في DeFi والتحديات الأمنية المرتبطة بها.
في المناقشات، أصبح "DeFAI" (التمويل الذكي اللامركزي) كلمة رئيسية. أشار الخبراء إلى أنه مع التطور السريع للنماذج اللغوية الكبيرة ووكلاء الذكاء الاصطناعي، يتشكل نمط مالي جديد تمامًا - DeFAI. ومع ذلك، فإن هذا التحول brings أيضًا أسطح هجوم جديدة ومخاطر أمنية.
قال أحد التنفيذيين في شركة أمنية: "تمتلك DeFAI آفاقًا واسعة، لكنها تجبرنا أيضًا على إعادة تقييم آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية القائمة على المنطق الثابت، تتأثر عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي بالسياق والوقت، وحتى التفاعلات التاريخية. تزيد هذه اللامركزية من المخاطر، كما تخلق فرصًا للمهاجمين."
"AI代理" هو في جوهره وكيل ذكي قادر على اتخاذ وتنفيذ القرارات بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وعادة ما يتم تفويضة للعمل من قبل المستخدم أو البروتوكول أو DAO. من بين هذه الوكلاء، يُعتبر روبوت التداول الذكي هو الأكثر تمثيلاً. حاليًا، تعمل معظم وكلاء الذكاء الاصطناعي على بنية Web2، وتعتمد على خوادم مركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة للتهديدات مثل هجمات الحقن، والتحكم في النماذج، أو التلاعب بالبيانات. بمجرد أن يتم اختراقها، فإن ذلك قد يؤدي إلى فقدان الأموال، وقد يؤثر أيضًا على استقرار البروتوكول بأكمله.
تم الإشارة في المنتدى إلى سيناريو هجوم نموذجي: عندما يقوم وكيل تداول الذكاء الاصطناعي الذي يديره مستخدم DeFi بمراقبة رسائل وسائل التواصل الاجتماعي كإشارات تداول، يقوم المهاجم بنشر إنذارات كاذبة، مثل "بروتوكول معين يتعرض لهجوم"، مما قد يؤدي إلى تحفيز ذلك الوكيل لبدء تصفية طارئة على الفور. لا تؤدي هذه العملية فقط إلى خسائر في أصول المستخدمين، بل تؤدي أيضًا إلى تقلبات في السوق، والتي يمكن أن يستغلها المهاجم من خلال التداول المسبق.
بالنسبة للمخاطر المذكورة أعلاه، يعتقد الخبراء عمومًا أن أمان الوكلاء الذكيين لا ينبغي أن يتحملها طرف واحد فقط، بل هي مسؤولية مشتركة بين المستخدمين والمطورين والمؤسسات الأمنية الخارجية.
أولاً، يحتاج المستخدم إلى فهم نطاق الصلاحيات التي يمتلكها الوكيل، ويجب أن يكون حذرًا في منح الصلاحيات، كما يجب الانتباه إلى مراجعة العمليات عالية المخاطر للوكلاء الذكيين. ثانياً، يجب على المطورين تنفيذ تدابير دفاعية في مرحلة التصميم، مثل: تعزيز الكلمات الرئيسية، وعزل الصندوق الرملي، وتحديد السرعة، ومنطق التراجع وغيرها من الآليات. بينما ينبغي على شركات الأمن الخارجية تقديم مراجعة مستقلة لسلوك نموذج الوكيل الذكي، والبنية التحتية، وطرق التكامل على السلسلة، والتعاون مع المطورين والمستخدمين لتحديد المخاطر واقتراح تدابير التخفيف.
في نهاية المناقشة، حذر أحد خبراء الأمن قائلاً: "إذا استمررنا في اعتبار وكلاء الذكاء الاصطناعي 'صندوق أسود'، فإن وقوع حوادث أمان في العالم الحقيقي ليس سوى مسألة وقت." بالنسبة للمطورين الذين يستكشفون اتجاه DeFAI، كانت نصيحته: "مثل العقود الذكية، يتم تنفيذ منطق سلوك وكلاء الذكاء الاصطناعي أيضًا بواسطة التعليمات البرمجية. نظرًا لأنها تعليمات برمجية، فهناك احتمال أن تتعرض للهجوم، لذلك من الضروري إجراء تدقيق أمني احترافي واختبار اختراق."
كواحدة من أكثر الفعاليات تأثيرًا في مجال blockchain في أوروبا، جذبت أسبوع blockchain في إسطنبول أكثر من 15,000 مشارك من المطورين والمشاريع والمستثمرين والجهات التنظيمية من جميع أنحاء العالم. هذا العام، مع بدء اللجنة التركية للأسواق المالية رسميًا في إصدار تراخيص لمشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 19
أعجبني
19
6
مشاركة
تعليق
0/400
PhantomMiner
· منذ 14 س
استعد للتداول، قم بتفريغ المحفظة والهرب.
شاهد النسخة الأصليةرد0
DefiEngineerJack
· منذ 14 س
*sigh* يوم آخر، ثغرة أمنية أخرى... التحقق الرسمي على LLMs ليس بالأمر السهل، سير
شاهد النسخة الأصليةرد0
RugPullProphet
· منذ 14 س
لقد قلت في نهاية عام 2019 أنني سأرحل، والآن هناك ثغرة جديدة.
شاهد النسخة الأصليةرد0
down_only_larry
· منذ 14 س
又是التمويل اللامركزي 的新概念 啧啧
شاهد النسخة الأصليةرد0
CoffeeNFTrader
· منذ 14 س
لا تتحدث بهذا الشكل، الأمر آمن. من يتحدث، هو G.
شاهد النسخة الأصليةرد0
NightAirdropper
· منذ 14 س
الأمان؟ العقود الذكية تتعرض للانفجارات طوال اليوم.
ظهور DeFAI: دمج الذكاء الاصطناعي وWeb3 يثير تحديات جديدة في الأمان
دمج الذكاء الاصطناعي وWeb3 يثير تحديات أمان جديدة، وDeFAI يصبح محور التركيز
مؤخراً، ركز أسبوع بلوكتشين إسطنبول على اتجاه دمج الذكاء الاصطناعي وWeb3، ليصبح منصة مهمة لمناقشات أمان Web3 هذا العام. في جلستين نقاشيتين، ناقش العديد من الخبراء في الصناعة حالة تطبيقات تقنية الذكاء الاصطناعي في DeFi والتحديات الأمنية المرتبطة بها.
في المناقشات، أصبح "DeFAI" (التمويل الذكي اللامركزي) كلمة رئيسية. أشار الخبراء إلى أنه مع التطور السريع للنماذج اللغوية الكبيرة ووكلاء الذكاء الاصطناعي، يتشكل نمط مالي جديد تمامًا - DeFAI. ومع ذلك، فإن هذا التحول brings أيضًا أسطح هجوم جديدة ومخاطر أمنية.
قال أحد التنفيذيين في شركة أمنية: "تمتلك DeFAI آفاقًا واسعة، لكنها تجبرنا أيضًا على إعادة تقييم آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية القائمة على المنطق الثابت، تتأثر عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي بالسياق والوقت، وحتى التفاعلات التاريخية. تزيد هذه اللامركزية من المخاطر، كما تخلق فرصًا للمهاجمين."
"AI代理" هو في جوهره وكيل ذكي قادر على اتخاذ وتنفيذ القرارات بشكل مستقل بناءً على منطق الذكاء الاصطناعي، وعادة ما يتم تفويضة للعمل من قبل المستخدم أو البروتوكول أو DAO. من بين هذه الوكلاء، يُعتبر روبوت التداول الذكي هو الأكثر تمثيلاً. حاليًا، تعمل معظم وكلاء الذكاء الاصطناعي على بنية Web2، وتعتمد على خوادم مركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة للتهديدات مثل هجمات الحقن، والتحكم في النماذج، أو التلاعب بالبيانات. بمجرد أن يتم اختراقها، فإن ذلك قد يؤدي إلى فقدان الأموال، وقد يؤثر أيضًا على استقرار البروتوكول بأكمله.
تم الإشارة في المنتدى إلى سيناريو هجوم نموذجي: عندما يقوم وكيل تداول الذكاء الاصطناعي الذي يديره مستخدم DeFi بمراقبة رسائل وسائل التواصل الاجتماعي كإشارات تداول، يقوم المهاجم بنشر إنذارات كاذبة، مثل "بروتوكول معين يتعرض لهجوم"، مما قد يؤدي إلى تحفيز ذلك الوكيل لبدء تصفية طارئة على الفور. لا تؤدي هذه العملية فقط إلى خسائر في أصول المستخدمين، بل تؤدي أيضًا إلى تقلبات في السوق، والتي يمكن أن يستغلها المهاجم من خلال التداول المسبق.
بالنسبة للمخاطر المذكورة أعلاه، يعتقد الخبراء عمومًا أن أمان الوكلاء الذكيين لا ينبغي أن يتحملها طرف واحد فقط، بل هي مسؤولية مشتركة بين المستخدمين والمطورين والمؤسسات الأمنية الخارجية.
أولاً، يحتاج المستخدم إلى فهم نطاق الصلاحيات التي يمتلكها الوكيل، ويجب أن يكون حذرًا في منح الصلاحيات، كما يجب الانتباه إلى مراجعة العمليات عالية المخاطر للوكلاء الذكيين. ثانياً، يجب على المطورين تنفيذ تدابير دفاعية في مرحلة التصميم، مثل: تعزيز الكلمات الرئيسية، وعزل الصندوق الرملي، وتحديد السرعة، ومنطق التراجع وغيرها من الآليات. بينما ينبغي على شركات الأمن الخارجية تقديم مراجعة مستقلة لسلوك نموذج الوكيل الذكي، والبنية التحتية، وطرق التكامل على السلسلة، والتعاون مع المطورين والمستخدمين لتحديد المخاطر واقتراح تدابير التخفيف.
في نهاية المناقشة، حذر أحد خبراء الأمن قائلاً: "إذا استمررنا في اعتبار وكلاء الذكاء الاصطناعي 'صندوق أسود'، فإن وقوع حوادث أمان في العالم الحقيقي ليس سوى مسألة وقت." بالنسبة للمطورين الذين يستكشفون اتجاه DeFAI، كانت نصيحته: "مثل العقود الذكية، يتم تنفيذ منطق سلوك وكلاء الذكاء الاصطناعي أيضًا بواسطة التعليمات البرمجية. نظرًا لأنها تعليمات برمجية، فهناك احتمال أن تتعرض للهجوم، لذلك من الضروري إجراء تدقيق أمني احترافي واختبار اختراق."
كواحدة من أكثر الفعاليات تأثيرًا في مجال blockchain في أوروبا، جذبت أسبوع blockchain في إسطنبول أكثر من 15,000 مشارك من المطورين والمشاريع والمستثمرين والجهات التنظيمية من جميع أنحاء العالم. هذا العام، مع بدء اللجنة التركية للأسواق المالية رسميًا في إصدار تراخيص لمشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.