محادثات شات جي بي تي المسربه 2025، "فضائح بالجملة اتكشفت بالغلط"

محادثات شات جي بي تي المسربه 2025، في حادثة أثارت الكثير من القلق حول خصوصية المستخدمين، اكتشفت شركة OpenAI أن العديد من المحادثات الخاصة بـ ChatGPT قد تم تسريبها علنًا على الإنترنت بسبب خطأ في واجهة المستخدم، الأمر الذي أتاح للمستخدمين نشر محادثاتهم بشكل غير متعمد على شبكة الإنترنت العالمية.
زر "المشاركة" يفتح الباب للمحتوى العام
بدأت المشكلة عندما ظن العديد من المستخدمين أن زر "مشاركة" في ChatGPT يتيح لهم فقط إنشاء رابط مؤقت لمحادثاتهم مع الذكاء الاصطناعي، ليشاركوها مع الآخرين.
ولكن، عند تحديد خيار "قابل للاكتشاف"، أصبح من الممكن لأي شخص العثور على المحادثة عبر محركات البحث مثل جوجل.

وفي أعقاب هذه الفوضى، سارعت OpenAI لإزالة خيار "قابل للاكتشاف" وأوقفت ميزة المشاركة التي تسببت في الفوضى، ولكن بعد فوات الأوان، فقد تم العثور على أكثر من 110,000 محادثة تم نشرها عبر الإنترنت، بما في ذلك على منصة Archive.org.
من بين المحادثات المسربة، كشفت تقارير عن محادثة أجراها محامٍ يعمل في شركة طاقة متعددة الجنسيات، إذ كان يناقش كيفية تهجير مجتمع أصلي من الأراضي لتطوير مشروع للطاقة الكهرومائية، كما أن الطابع الاستغلالي للمحادثة، التي كانت توضح نية المحامي في التفاوض مع السكان الأصليين بأسعار منخفضة بسبب جهلهم بالقيمة الاقتصادية للأراضي، أثار الجدل.
اقرأ أيضًا:
إطلاق ميزة جديدة بـ شات جي بي تي، "هتقعد المدرسين في البيت"
بريطانية تنهي علاقتها العاطفية بعد استشارة "شات جي بي تي"| تفاصيل
تفاصيل صفقة وزارة الدفاع الأمريكية مع OpenAI مالكة شات جي بي تي
هل يوجد عطل في شات جي بي تي اليوم؟ الكل يترقب بيان OpenAI
بالإضافة إلى هذه الأمثلة، أظهرت التحقيقات وجود محادثات أخرى تتضمن محتوى غير لائق، مثل: التلاعب لتوليد محتوى يتعلق بالقاصرين أو مناقشة خطط هروب ضحايا العنف المنزلي، وهذا يثير قلقًا حول مدى أمان استخدام هذه الأنظمة في ظل إمكانية تسريب هذه المحادثات.

ما حدث مع OpenAI يثير تساؤلات حول كيفية تصميم أنظمة الذكاء الاصطناعي والتأكد من خصوصية وأمان المستخدمين، هذه الحادثة ليست الوحيدة؛ فقد أطلقت شركة Meta في وقت سابق منصة مشابهة مع ميزة "اكتشاف" التي سمحت للمستخدمين بمشاركة محادثاتهم عن غير قصد مع الآخرين، ما أثار ردود فعل انتقادية من الصحافة والمستخدمين.
محادثات شات جي بي تي المسربه 2025، بعض الأسئلة يجب أن تبقى دون إجابة
محادثات شات جي بي تي المسربه 2025، وفي حادثة جديدة تكشف عن الثغرات الأمنية في أنظمة الذكاء الاصطناعي، أصبح من الواضح أن ChatGPT، على الرغم من كونه غير موثوق به في كثير من الأحيان، ليس محصنًا من الاستخدامات غير الأخلاقية.

فقد أظهر تحقيق جديد أن المستخدمين قد طلبوا من الروبوت المساعدة في أداء أعمال مشبوهة وغير قانونية، في مسعى لتوجيه أسئلة شخصية أو مساعدة في أنشطة تجارية مرفوضة أخلاقيًا، وقد تم الكشف عن هذه المحادثات نتيجة لتصميم ضعيف ساعد في فهرستها وجعلها قابلة للبحث عبر محركات الإنترنت.
خطأ تصميمي يكشف سر محادثات شات جي بي تي المسربه 2025
وفقًا لتقرير صادر عن شركة Digital Digging، التي يديرها المحقق هينك فان إس، كان أحد الأخطاء الرئيسية هو ميزة "المشاركة" في ChatGPT، التي كانت تهدف إلى السماح للمستخدمين بمشاركة أجزاء من محادثاتهم مع آخرين.
لكن بدلاً من إنشاء روابط خاصة للمحادثات، جعلت الميزة المحادثات متاحة للعامة، إذ تم فهرستها بواسطة محركات البحث مثل جوجل، مما سمح لأي شخص بالوصول إليها عبر الرابط.

على الرغم من أن OpenAI قد ألغت خيار "القابل للاكتشاف" في المحادثات بعد انتشار هذه المشكلة، إلا أن العديد من المحادثات ظلت قابلة للوصول عبر مواقع مثل: Archive.org، ومن المؤكد أن بعض هذه المحادثات لا تمثل أفضل ما في الإنسانية.
محادثات شات جي بي تي المسربه 2025، سلوكيات غير أخلاقية
من بين هذه المحادثات المثيرة للقلق، كشفت Digital Digging عن محادثة مع محامٍ إيطالي يعمل لصالح شركة متعددة الجنسيات في مجال الطاقة، وفي هذه المحادثة، اعترف المحامي بنية شركته تهجير مجتمع أصلي صغير في الأمازون بهدف بناء سد للطاقة الكهرومائية.
كان المحامي يطلب من ChatGPT استراتيجيات للحصول على "أقل سعر ممكن" في المفاوضات مع السكان الأصليين، مشيرًا إلى أن هؤلاء السكان "لا يعرفون القيمة الحقيقية للأرض" ولا يفهمون “كيفية عمل السوق”، هذا التصرف يظهر بشكل واضح سلوكًا استغلاليًا لا يُحتمل أن يظهر إلا بعد تخطيط مدروس وموارد قانونية ضخمة.
محادثة أخرى سلطت الضوء على شخص يعمل في مركز أبحاث دولي، حيث استخدم ChatGPT لمناقشة سيناريوهات انهيار محتمل للحكومة الأمريكية، يبحث عن استراتيجيات للاستعداد لأي طارئ.
وفي حالة مثيرة للسخرية، طلب محامٍ من ChatGPT صياغة دفاع عن زميله في قضية قانونية قبل أن يدرك أنه يمثل الطرف الآخر في الدعوى.
بينما قد تبدو بعض هذه المحادثات مثيرة للدهشة، إلا أن هناك جانبًا أكثر خطورة في هذا التسريب، ففي بعض المحادثات، وجد الباحثون حالات ضحايا العنف الأسري الذين كانوا يسعون للحصول على المساعدة للنجاة من أوضاعهم المعقدة.
كما تم اكتشاف محادثة لمستخدم ناطق بالعربية يطلب من ChatGPT صياغة نقد سياسي للحكومة المصرية، وهو أمر قد يعرضه للاضطهاد من قبل النظام، خاصةً في ظل التاريخ الطويل للقمع الحكومي واعتقال المعارضين.
هذه الحوارات تعيد إلى الأذهان ما حدث في بداية ظهور المساعدين الصوتيين، عندما تم استخدام تسجيلات المحادثات لتدريب أنظمة التعرف على الصوت.
لكن الفرق هنا يكمن في أن المحادثات في ChatGPT تبدو أكثر عمقًا وخصوصية، إذ يكشف الأشخاص عن تفاصيل حياتهم بشكل أكبر مما يفعلون مع مساعدات مثل "سيري"، وهو ما يعزز من خطر تسريب المعلومات الحساسة.
تظهر هذه الحادثة بوضوح كيف أن استخدام تقنيات الذكاء الاصطناعي قد يفتح المجال للتسلل إلى الحياة الشخصية للمستخدمين.
على الرغم من أن خطأ التصميم في ChatGPT كان السبب المباشر في نشر هذه المحادثات، إلا أن هذه الفضيحة تعيد تسليط الضوء على الحاجة إلى تطوير أطر أمنية أقوى وأخلاقيات أفضل في التعامل مع البيانات الخاصة.
إن تسريب مثل هذه المحادثات قد يهدد الأفراد الذين يسعون للحصول على مساعدة قانونية أو سياسية، وقد يؤدي إلى عواقب لا يمكن تصورها على الأمان الشخصي.
في النهاية، يجب على المستخدمين أن يدركوا أن بعض الأسئلة التي يطرحونها على روبوتات الذكاء الاصطناعي قد تؤدي إلى عواقب غير متوقعة، وأن بعض المحادثات يجب أن تظل سرية وخاصة.