بسبب خرق الأمان في OpenAI غرامة تتجاوز الألفي دولار من كوريا الجنوبيه كتعويض عن ذلك

open AI  واختراق الخصوصية

مخاوف الخصوصية والذكاء الاصطناعي تثير المزيد من الأسئلة حول التطور التكنولوجي

أثار خبر غرامة قدرها 3.6 مليون وون (حوالي 3000 دولار) الذي فرضته لجنة حماية المعلومات الشخصية في كوريا الجنوبية (PIPC) على شركة OpenAI، المطورة لـChatGPT، ضجة كبيرة في مجتمع التكنولوجيا. السبب؟ انتهاك الشركة للمعلومات الشخصية لـ 687 مستخدمًا كوريًا.

وفقًا لموقع TOI الهندي، تم تسريب معلومات هؤلاء المستخدمين خلال اختراق في مارس. فقد قامت OpenAI بتعطيل ChatGPT مؤقتًا لإصلاح خطأ ما سمح لبعض المستخدمين برؤية محفوظات دردشة المستخدمين الآخرين على البرنامج الشهير للدردشة الآلية.

لم تكن هذه المعلومات هي الوحيدة المتأثرة، حيث كشفت الشركة أن الخطأ الذي تم تصحيحه الآن في مكتبة ChatGPT المفتوحة المصدر قد يكون أيضا كشف عن بيانات شخصية أخرى مثل معلومات الدفع الخاصة بالمشتركين في ChatGPT Plus، والأسماء الأولى والأخيرة، وعناوين البريد الإلكتروني.

وضعت PIPC غرامة على الشركة العاملة في مجال الذكاء الاصطناعي لخرق واجبها بإبلاغ السلطات بالمشكلة في غضون 24 ساعة من الكشف عنها. ومع ذلك، فإن PIPC أكدت أنه لا يمكن إلقاء اللوم كله على الشركة بسبب التساهل في تدابير حماية المعلومات الشخصية.

تم نصح الشركة باتخاذ تدابير لمنع المزيد من الحوادث المماثلة وطُلب منها الامتثال لقانون حماية المعلومات الشخصية الكوري.

منتدى نموذج الحدود: تعاون آمن في مجال الذكاء الاصطناعي

في خطوة ذات صلة، أعلنت OpenAI عن تعاونها مع Google وMicrosoft وAnthropic لإطلاق "منتدى نموذج الحدود"، وهي هيئة صناعية مكرسة لضمان التطور الآمن والمسؤول لنماذج الذكاء الاصطناعي الحدودية.

تهدف هذه الهيئة إلى تعزيز أبحاث السلامة في الذكاء الاصطناعي والتقليل من المخاطر المحتملة لهذه النماذج، وتحديد أفضل ممارسات السلامة لها. ستشارك الهيئة المعرفة مع صانعي السياسات والأكاديميين والمجتمع المدني وغيرهم لتعزيز التطور المسؤول للذكاء الاصطناعي، بين غيرها من الأمور.

تعتبر النماذج الحدودية من بين أكبر وأكثر أنظمة الذكاء الاصطناعي تقدمًا، والتي تفوق حاليًا قدرات النماذج الحالية عبر مجموعة متنوعة من المهام.