في 20 مارس، أزالت OpenAI أداة الذكاء الاصطناعي التوليدية الشهيرة ChatGPT لبضع ساعات. لاحقا اعترف أن سبب الانقطاع هو ثغرة أمنية في سلسلة توريد البرامج والتي نشأت في مكتبة مخزن البيانات مفتوحة المصدر في الذاكرة "رديس'.
نتيجة لهذه الثغرة الأمنية، كانت هناك نافذة زمنية (بين الساعة 1 و10 صباحًا بتوقيت المحيط الهادئ في 20 مارس) حيث يمكن للمستخدمين الوصول عن طريق الخطأ إلى عناوين محفوظات الدردشة الخاصة بالمستخدمين الآخرين وربما كشف المعلومات المتعلقة بالدفع مثل الأسماء وعناوين البريد الإلكتروني وعناوين الدفع. ونوع بطاقة الائتمان وآخر أربعة أرقام من رقم بطاقة الدفع.
كان هذا خطأً بسيطًا نسبيًا تم اكتشافه وإصلاحه بسرعة. بالنظر إلى الشعبية المتزايدة لـ ChatGPT وغيرها من برامج LLM التوليدية، ما يمكن أن يكون تداعيات أكثر استهدافًا هجوم سلسلة توريد البرمجيات?
في هذه المقالة، سنلقي نظرة على ما حدث بالضبط في 20 مارس وكيف تم الكشف عن معلومات المستخدم. سنقوم أيضًا برحلة خيالية قصيرة إلى هجوم محتمل أكثر خطورة ونرى ما هي المعلومات التي يمكن كشفها وما يمكن فعله للمساعدة في منع مثل هذه الحالات. سننتهي مع عدد قليل من العامة أمن سلسلة توريد البرمجيات الاقتراحات التي يمكن أن تكون ذات صلة بغض النظر عن البرنامج الذي تعمل عليه شركتك.
إليكم ما حدث
مثل أي شركة برمجيات أخرى تقريبًا، يعتمد كود OpenAI بشكل كبير على المكتبات والتعليمات البرمجية مفتوحة المصدر. في هذه الحالة، تم اكتشاف الخطأ في مكتبة العميل Redis مفتوحة المصدر، ريديس بي. إليك وصف الخطأ كما يظهر في وصف الشركة حكى:
- يستخدم OpenAI Redis لتخزين معلومات المستخدم مؤقتًا في الخادم الخاص بهم حتى لا يتطلب التحقق من قاعدة البيانات الخاصة بهم لكل طلب.
- تُستخدم مجموعات Redis لتوزيع هذا التحميل على مثيلات Redis المتعددة.
- تُستخدم مكتبة redis-py للتفاعل مع Redis من خادم Python الخاص بالشركة، والذي يعمل مع غير متزامن.
- تحتفظ المكتبة بمجموعة مشتركة من الاتصالات بين الخادم والمجموعة وتقوم بإعادة تدوير الاتصال لاستخدامه في طلب آخر بمجرد الانتهاء منه.
- عند استخدام Asyncio، تتصرف الطلبات والاستجابات باستخدام redis-py كقائمة انتظار: يقوم المتصل بدفع الطلب إلى قائمة الانتظار الواردة، للملوثات العضوية الثابتة استجابة من قائمة الانتظار الصادرة, ومن ثم إرجاع الاتصال إلى التجمع.
- لنفترض أنه تم إلغاء الطلب بعد دفعه إلى قائمة الانتظار الواردة، ولكن قبل ظهور الاستجابة من قائمة الانتظار الصادرة. في هذه الحالة، نرى لدينا علة: يصبح الاتصال تالفًا ويمكن أن تتلقى الاستجابة التالية التي يتم سحبها لطلب غير ذي صلة البيانات المتبقية في الاتصال.
- في معظم الحالات، يؤدي هذا إلى حدوث خطأ في الخادم غير قابل للاسترداد، وسيتعين على المستخدم تجربة طلبه مرة أخرى.
- ولكن في بعض الحالات، تتطابق البيانات التالفة مع نوع البيانات الذي كان يتوقعه مقدم الطلب، وبالتالي فإن ما يتم إرجاعه من ذاكرة التخزين المؤقت يبدو صالحًا، حتى لو كان يخص مستخدمًا آخر.
- في الساعة الواحدة صباحًا بتوقيت المحيط الهادئ يوم الاثنين الموافق 1 مارس، أدخلت شركة OpenAI تغييرًا عن غير قصد على خادمها مما أدى إلى ارتفاع كبير في عمليات إلغاء طلبات Redis. أدى هذا إلى إنشاء احتمالية أعلى من المعتاد لكل اتصال لإرجاع بيانات سيئة.
ظهر هذا الخطأ المحدد فقط في عميل Asyncio redis-py الخاص بـ Redis Cluster وتم إصلاحه منذ ذلك الحين من خلال العمل المشترك لمهندسي OpenAI ومشرفي مكتبة Redis.
للتذكير، قد يؤدي هذا الخطأ عن غير قصد إلى كشف عنوان بحث مستخدم نشط آخر وجزء من معلومات الدفع الخاصة بهذا المستخدم. يمنح بعض المستخدمين الآن ChatGPT سيطرة كاملة أو جزئية على بياناتهم الشخصية الماليةمما يعطي التعرض لهذه المعلومات نتائج كارثية محتملة.
إليك ما يمكن أن يحدث
في هذه الحالة، كان الخلل في سلسلة توريد البرامج الذي ورثته شركة OpenAi من مكتبة Redis مفتوحة المصدر، بسيطًا نسبيًا ويمكن تصحيحه بسهولة. أود أن أطلب منكم التسامح في تخيل سيناريو أكثر خطورة، حيث يتم تنفيذ هجوم مستهدف على سلسلة توريد البرامج، مشابه لذلك الذي تمت زيارته سولارويندز يحدث ويترك غير مكتشف لفترة طويلة من الزمن، دعنا نقول أشهر.
نظرًا لأن المستخدمين يدفعون الآن لـ OpenAI مقابل المزيد من الوصول المباشر إلى LLM الخاصة بهم، فمن المحتمل أن يكشف مثل هذا الهجوم عن معلومات العميل بما في ذلك بيانات الدفع الخاصة به. ولكن هذه ليست في الواقع المعلومات التي تهتم بها مجموعة الهاكرز الافتراضية لدينا. تمتلك ChatGPT حاليًا مليار مستخدم 1.16. لقد تجاوز مليار مستخدم في مارس 1. وتمثل هذه الأرقام زيادة بنسبة 2023٪ تقريبًا من فبراير 55 إلى مارس 2023. ومع استخدام العديد من الأشخاص الآن للذكاء الاصطناعي التوليدي في أي شيء بدءًا من واجبات الفن والتاريخ وحتى الشؤون المالية، فإن الوصول غير المقيد إلى قاعدة بيانات OpenAI يمكن أن يكشف عن إمكانات معلومات الابتزاز على عدد لا يحصى من المستخدمين. ال أسود مرآة تعطي حلقة "Shut Up and Dance" (الموسم 3، الحلقة 3، 2016) نتيجة خيالية جيدة جدًا لمثل هذه المعلومات الصريحة التي تجد طريقها إلى أيدي الأشخاص عديمي الضمير. إذا كنت تبحث عن موازٍ أكثر واقعية، فإن خرق بيانات اشلي ماديسون كان لأحداث عام 2015 بعض العواقب الوخيمة، وبعضها لا يزال قائما حتى بعد مرور سنوات.
دعنا نذهب أبعد قليلاً في الاختراق الخيالي ونقول أنه لا يمكن لمجموعة القرصنة غير المسماة هذه الوصول إلى قاعدة بيانات OpenAI فحسب، بل يمكنها أيضًا التأثير على نتائج الطلبات. هل يمكنك أن تتخيل إمكانية حصول الملايين من الأشخاص على مشورة مالية مستهدفة مصممة خصيصًا من قبل مجموعة من المتسللين؟ أو الحصول على معلومات فحص أمني زائفة أو معلومات اختبار التعليمات البرمجية، مرة أخرى، من مجموعة المتسللين الغامضة لدينا. حقيقة أن ChatGPT يمكنه الآن الوصول إلى الإنترنت تجعل من السهل إخفاء المعلومات الداخلة أو الخارجة من خوادم OpenAI باعتبارها مجرد بيانات عادية وغير ضارة.
سأتوقف هنا ولكن أعتقد أنه يمكنك رؤية الضرر المحتمل الهائل الذي يمكن أن يسببه هجوم سلسلة توريد البرامج ضد ماجستير إدارة أعمال ناجح.
كيف تحمي نفسك وسلسلة توريد البرامج الخاصة بك
من أول الأشياء التي يمكنك القيام بها لحماية نفسك هو زيادة إحساسك بالريبة. لا تثق ضمنيًا بأي أداة، مهما بدت حميدة، إلا إذا كان بإمكانك ضمان سيطرتك الكاملة على ما تفعله، وما يمكن أن تفعله، وما هي الموارد التي يمكنها الوصول إليها. خيار تشغيل إصدار مفتوح المصدر من ChatGPT محليا يمكن أن يمنحك مزيدًا من التحكم في معلومات التدريب ومستوى الوصول إليها.
كشركة برمجيات ترغب في أن تكون أكثر يقظة بشأن الإمكانات مخاطر سلسلة توريد البرمجيات ورثت من خلال الحزم مفتوحة المصدر التي تستخدمها، وأنا أشجعك على التحقق من ذلك حل الكاتب. قام Scribe بتطوير نظام أساسي يتيح قدرًا أكبر من الشفافية في SDLC الكامل الخاص بك فيما يتعلق بجميع الحزم والحزم الموروثة التي تقوم بتضمينها بالإضافة إلى أي اختبارات ترغب في إجرائها على طول الطريق. تقوم المنصة بإنشاء سبوم لكل تصميم من تصميماتك ويتضمن جميع المعلومات الأمنية المجمعة لكل تصميم في مكان واحد. ويمكنه أيضًا إخبارك ما إذا كان الإصدار الخاص بك متوافقًا مع SLSA حتى المستوى 3 ومع SSDF الخاص بـ NIST. الجديد أداة فالنت كما يسمح لك ل إنشاء السياسات الخاصة بك وقم بتطبيقها على أي جزء من خط أنابيب الإنشاء الذي تريده. إن حفظ جميع معلومات الأمان الخاصة بك في مكان واحد، مرتبة حسب الإصدارات بمرور الوقت، يسمح لك بمراقبة كيفية تغير تطبيقك مع تطوره سواء من حيث تبعياته أو أمانه.
مستقبل الذكاء الاصطناعي
الذكاء الاصطناعي موجود ليبقى بغض النظر عما نفعله. إن مستوى مشاركتها في حياتنا اليومية هو مسألة تكهنات، ولكن بناءً على الأشهر الستة الماضية وحدها، يبدو من المؤكد أننا ننظر إلى لحظة فاصلة محتملة لتكنولوجيا LLM واستخداماتها. نظرًا لأن الذكاء الاصطناعي يجعل إنشاء الأكواد وتطبيقات القماش بالكامل مسألة العثور على المطالبات الصحيحة في "اللغة الطبيعية"، فقد نواجه طوفانًا غير مسبوق من التطبيقات التي لم يتم اختبارها بشكل صحيح ولا تحتوي على ضمانات الأمان المناسبة لحماية مستخدميها. والأشخاص أو الشركات التي أنشأتها.
في وقت لاحق من هذا الشهر، سيستضيف Scribe أ الويبينار التعامل على وجه التحديد مع مسألة ما إذا كان يمكنك الوثوق بالذكاء الاصطناعي لمساعدتك في حماية سلسلة توريد البرامج الخاصة بك أم لا. إذا كانت لديك أية أسئلة بناءً على ما قرأته هنا، فسيكون هذا هو المكان والوقت المناسبين لتقديمها.
منذ منصة الكاتب مجانية للاستخدام لما يصل إلى 100 إصدار شهريًا، أشجع أيًا منكم، سواء كان مطورًا واحدًا أو شركة، على تجربته ومعرفة عدد احتياجاتك الأمنية والتنظيمية التي يلبيها النظام الأساسي. وإلى أن يأتي اليوم الذي تستمع فيه المخابرات الحقيقية إلينا خلف شاشاتنا، لم يتبق لنا إلا أن نجد طرقًا أخرى للتعامل مع أمننا، وأعتقد أن تعزيز الرؤية كمقدمة للثقة هو مكان جيد للبدء.
يتم تقديم هذا المحتوى إليك بواسطة Scribe Security، وهي شركة رائدة في مجال توفير حلول أمان سلسلة توريد البرامج الشاملة - حيث توفر أحدث الأمان لعناصر التعليمات البرمجية وعمليات تطوير التعليمات البرمجية وتسليمها عبر سلاسل توريد البرامج. تعرف على المزيد.