مهندس مايكروسوفت يحذر من برنامج Copilot: ليس آمنًا ويمكن أن يولد صورًا ضارة

جمعة, 08/03/2024 - 17:48

تعد دردشة Bing من مايكروسوفت واحدة من أولى برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي والتي توفر ميزات إنشاء الصور وتوفر للمستخدمين مكانًا يمكنهم من خلاله الحصول على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بالإضافة إلى الصور، وعلى مدار الأشهر القليلة الماضية، استمر Bing AI في التطور ويُعرف الآن باسم Copilot، ومع ذلك، وفقًا لأحد موظفي Microsoft، فإن ميزة إنشاء الصور في برنامج Copilot ليست آمنة كما ينبغي، حيث يقول مهندس Microsoft أن برنامج Copilot ليس آمنًا، وفقاً لموقع indiatoday.

 

 

أعرب شين جونز، مهندس الذكاء الاصطناعي في Microsoft، علنًا عن مخاوفه مع Copilot، وفي منشور على موقع LinkedIn، قال جونز إن أداة الذكاء الاصطناعي الخاصة بالشركة لا تتمتع بالضمانات اللازمة ضد إنتاج صور عنيفة وذات طابع جنسي، وعلى الرغم من المحاولات المتعددة لتنبيه إدارة Microsoft بهذه المشكلات، ادعى جونز أنه لم يتم اتخاذ أي إجراء، وأرسل رسالة إلى لجنة التجارة الفيدرالية ومجلس إدارة مايكروسوفت.

 

في الرسالة المنشورة على LinkedIn، كشف جونز، الذي كان يعمل كمدير رئيسي لهندسة البرمجيات في Microsoft، أن الشركة كانت على علم داخليًا بالمشكلات النظامية المتعلقة بمولد الصور AI، وتحديدًا Copilot Designer من Microsoft. تقوم الأداة، المدعومة بنظام الذكاء الاصطناعي DALL-E 3 من OpenAI، بإنشاء صور بناءً على المطالبات النصية. جادل جونز بأن برنامج Copilot Designer واجه "مشاكل نظامية" في إنشاء محتوى ضار وحث على إزالته من الاستخدام العام حتى يتم حل هذه المشكلات.

 

أشار جونز إلى أن الأداة كانت تفتقر إلى القيود المناسبة، وغالبًا ما كانت تولد صورًا تجعل النساء شيئًا جنسيًا حتى مع مطالبات غير ذات صلة.

 

كما انتقد جونز الشركة لتسويق برنامج Copilot Designer باعتباره آمنًا ليستخدمه أي شخص دون الكشف عن المخاطر المعروفة، وقال إن مخاوفه تم التحقق من صحتها من خلال مشكلات تتعلق بالسلامة في يناير، مما دفع Microsoft إلى تحديث برنامج Copilot Designer ومعالجة المشكلات المماثلة، وفي الوقت نفسه، قامت الشركة بترويج برنامج Copilot بشكل كبير باعتباره رفيقًا للذكاء الاصطناعي يمكن الوصول إليه للشركات والمساعي الإبداعية.

 

رد مايكروسوفت

ردت مايكروسوفت، من خلال متحدث باسمها، على رسالة جونز.

 

ووفقا لما ذكره موقع CNBC، قالت الشركة، إنها "ملتزمة بمعالجة أي وجميع مخاوف الموظفين وفقًا لسياسات الشركة"، وأضافت الشركة أنها تقدر جهود موظفيها في "دراسة واختبار أحدث تقنياتها لتعزيز سلامتها".

 

وكشف جونز أيضًا أنه حاول التحدث ضد Microsoft Copilot في وقت سابق أيضًا، ولقد شارك أنه نشر نفس الشيء تقريبًا على LinkedIn في ديسمبر، ولكن يُزعم أنه تعرض لضغوط من قبل فريق الشؤون القانونية والخارجية والشركة في Microsoft لإزالة المنشور، وأشار موظف Microsoft إلى أن منشوره حث مجلس إدارة OpenAI على تعليق DALL-E 3 بسبب مخاوف تتعلق بالسلامة، وعلى الرغم من امتثاله، ادعى جونز أنه لم يتلق أي تفسير من الإدارة القانونية.

إعلانات

 

 

 

تابعنا على فيسبوك