اكتشف باحثون من جامعة كاليفورنيا أن بعض موجهات نماذج اللغة الكبيرة (LLM) من طرف ثالث قائمة على الذكاء الاصطناعي يمكن أن تشكل ثغرات أمنية قد تؤدي إلى سرقة الكريبتو.
كشفت ورقة بحثية تقيس هجمات الوسطاء الخبيثة على سلسلة إمداد نماذج اللغة الكبيرة، نُشرت يوم الخميس من قبل الباحثين، عن أربعة متجهات هجومية، بما في ذلك حقن التعليمات البرمجية الخبيثة واستخراج بيانات الاعتماد.
قال المؤلف المشارك في الورقة، تشاوفان شو، على منصة X: "26 موجهًا لنماذج اللغة الكبيرة تحقن سرًا استدعاءات أدوات خبيثة وتسرق بيانات الاعتماد".
توجه وكلاء نماذج اللغة الكبيرة الطلبات بشكل متزايد عبر وسطاء أو موجهات API من طرف ثالث تجمع الوصول إلى مزودين مثل OpenAI وAnthropic وGoogle. ومع ذلك، تنهي هذه الموجهات اتصالات TLS (أمان طبقة النقل) على الإنترنت ولديها وصول كامل بنص عادي إلى كل رسالة.
هذا يعني أن المطورين الذين يستخدمون وكلاء الترميز القائمة على الذكاء الاصطناعي مثل Claude Code للعمل على العقود الذكية أو المحافظ قد يمررون المفاتيح الخاصة وعبارات الاسترداد والبيانات الحساسة عبر بنية تحتية للموجهات لم يتم فحصها أو تأمينها.
سلسلة إمداد موجه نماذج اللغة الكبيرة متعددة القفزات. المصدر: arXiv.org
سرقة ETH من محفظة كريبتو تجريبية
اختبر الباحثون 28 موجهًا مدفوعًا و400 موجه مجاني تم جمعها من المجتمعات العامة.
كانت النتائج مذهلة، حيث قامت تسعة موجهات بحقن التعليمات البرمجية الخبيثة بشكل نشط، واثنان بنشر محفزات التهرب التكيفية، و17 بالوصول إلى بيانات اعتماد خدمات أمازون ويب المملوكة للباحثين، وواحد بسحب الإيثر (ETH) من مفتاح خاص مملوك للباحثين.
ذات صلة: تحد Anthropic من الوصول إلى نموذج الذكاء الاصطناعي بسبب مخاوف الهجمات الإلكترونية
قام الباحثون بتمويل مسبق لـ "مفاتيح وهمية" لمحفظة الإيثيريوم بأرصدة اسمية وأفادوا بأن القيمة المفقودة في التجربة كانت أقل من 50 دولارًا، ولكن لم يتم تقديم تفاصيل أخرى مثل رمز المعاملة.
أجرى المؤلفون أيضًا "دراستي تسميم" تُظهران أن حتى الموجهات الحميدة تصبح خطيرة بمجرد إعادة استخدام بيانات الاعتماد المسربة عبر مرحلات ضعيفة.
من الصعب معرفة ما إذا كانت الموجهات خبيثة
قال الباحثون إنه ليس من السهل اكتشاف متى يكون الموجه خبيثًا.
كان الاكتشاف المقلق الآخر هو ما أسماه الباحثون "وضع YOLO". هذا إعداد في العديد من أطر عمل وكلاء الذكاء الاصطناعي حيث ينفذ الوكيل الأوامر تلقائيًا دون أن يطلب من المستخدم تأكيد كل واحدة.
وجد الباحثون أن الموجهات الشرعية سابقًا يمكن تحويلها بصمت إلى أسلحة دون أن يعرف المشغل ذلك، بينما قد تسرق الموجهات المجانية بيانات الاعتماد أثناء تقديم وصول API رخيص كطُعم.
أوصى الباحثون بأن المطورين الذين يستخدمون وكلاء الذكاء الاصطناعي للترميز يجب أن يعززوا دفاعات جانب العميل، مقترحين عدم السماح أبدًا للمفاتيح الخاصة أو عبارات الاسترداد بالمرور عبر جلسة وكيل الذكاء الاصطناعي.
الحل طويل الأجل هو أن تقوم شركات الذكاء الاصطناعي بالتوقيع تشفيريًا على استجاباتها حتى يمكن التحقق رياضيًا من أن التعليمات التي ينفذها الوكيل تأتي من النموذج الفعلي.
مجلة: لا أحد يعرف ما إذا كان التشفير الآمن الكمي سيعمل حتى
- #Ethereum
- #AI
- #Cybercrime
- #Cybersecurity
- #AI & Hi-Tech







