دراسة: الأحكام الأخلاقية لـ«تشات جي بي تي» تؤثر على أفعال البشر
كشفت دراسة لباحثين من جامعة إنغولشتات التقنية بألمانيا، نشرت الخميس في دورية «ساينتفيك ريبورتيز»، أن ردود الفعل البشرية على المعضلات الأخلاقية، يمكن أن تتأثر ببيانات مكتوبة بواسطة برنامج الدردشة الآلي للذكاء الصناعي «تشات جي بي تي». وسأل الفريق البحثي برئاسة سيباستيان كروغل، الأستاذ بكلية علوم الكومبيوتر بالجامعة، برنامج «تشات جي بي تي»، عدة مرات عما إذا كان من الصواب، أم لا، التضحية بحياة شخص واحد من أجل إنقاذ حياة 5 آخرين، ووجدوا أن التطبيق أيد أحياناً التضحية بحياة واحد من أجل 5، وكان في أحيان أخرى ضدها، ولم يُظهر انحيازاً محدداً تجاه هذا الموقف الأخلاقي.
وطلب الباحثون بعد ذلك من 767 مشاركاً، كانوا في المتوسط 39 عاماً، تحديد موقفهم من هذه المعضلة الأخلاقية التي تتطلب منهم اختيار التضحية بحياة شخص واحد لإنقاذ 5 آخرين، وقبل الإجابة، أطلع الباحثون المشاركين على بيان قدمه «تشات جي بي تي»، ونُسبت البيانات إما إلى مستشار أخلاقي أو إلى «تشات جي بي تي»، وبعد الإجابة، سُئل المشاركون عما إذا كان البيان الذي قرأوه قد أثر على إجاباتهم»، أم لا.
وجد الباحثون أن قبول أو عدم قبول التضحية بحياة واحدة لإنقاذ 5 أشخاص، يعتمد على ما إذا كان البيان الذي قرأوه يؤيد أو يعارض التضحية، وكان هذا صحيحاً، حتى في حالة البيان الذي نسب إلى روبوت المحادثة «تشات جي بي تي».
وعلى الرغم من أن 80 بالمائة من المشاركين، قالوا إن إجاباتهم «لم تتأثر بالبيانات التي قرأوها»، فإن الباحثين وجدوا أن الإجابات التي ادعى المشاركون أنهم قدموها دون تأثير من البيانات، «كانت أكثر ميلاً للاتفاق مع الموقف الأخلاقي للبيان الذي قرأوه أكثر من الموقف المعاكس»، ويشير هذا إلى أن «المشاركين ربما قللوا من تأثير بيان (تشات جي بي تي) على أحكامهم الأخلاقية، على عكس الحقيقة».
ويقول سيباستيان كروغل في تصريحات خاصة لـ«الشرق الأوسط»، إن «هذه النتائج التي رصدتها الدراسة، تشير بوضوح إلى أن هناك كثيراً من المخاطر والتحديات التي تنتظرنا عندما يتعلق الأمر بالذكاء الصناعي، وأحد المخاطر المحددة أن أنظمة الذكاء الصناعي يمكن (دون وعي) أن تصبح (صانع القرار الفعلي)، حتى لو كانت مقصورة في المقام الأول على دور دعم القرار».
ويضيف كروغل: «يبدو أننا معرضون بشدة للنصائح الأخلاقية ونتأثر بها بسهولة، حتى لو كانت النصيحة تأتي من (ببغاء عشوائي)، بدليل أنه لم يكن هناك ثبات في الموقف الأخلاقي، وحصلنا على إجابتين مختلفتين للمعضلة الأخلاقية نفسها».
ورغم ذلك، يؤمن كروغل بأن «التغيير التكنولوجي يكون دائماً مصحوباً بالتحديات»، مشيراً إلى أن «المجتمع بحاجة إلى أن يظل يقظاً ويلقي نظرة نقدية على التكنولوجيا الجديدة مع الاعتراف بإمكاناتها»، متابعاً: «نحن متفائلون نسبياً بأننا سنجد حلولاً لكثير من التحديات، ولن نوقف التقدم التكنولوجي على أي حال، لكن يجب أن نحاول تشكيل التقدم التكنولوجي قدر الإمكان بما يخدم مصلحتنا الخاصة».
ويضيف: «نظراً لأننا سنواجه تطبيقات قائمة على الذكاء الصناعي بجميع مجالات الحياة، فإننا بحاجة إلى مزيد من المعرفة حول كيفية تأثير ذلك على تصوراتنا الذاتية وسلوكنا وكيفية تفاعلنا مع بعضنا، لذلك، نحن بحاجة إلى كثير من الأبحاث حول هذه الآثار النفسية والسلوكية». ويعتقد كروغل أن إجابات المستخدمين بالدراسة تعكس ثقة في التطبيق، ويقول: «هذه الأدوات ستصبح جزءاً من حياتنا، ويجب التعود على ذلك، لكن نحتاج كمستخدمين إلى فهم أساسي لأدائها وحدودها، وبالطبع، سيكون تنظيم الذكاء الصناعي والإطار القانوني مهمين».
وتابع: «لكن من المفترض أن التغيير التكنولوجي سيكون دائماً متقدماً على التنظيم بخطوة واحدة، ولا ينبغي للمرء أن يعتمد فقط على التدخل الحكومي والسلطات عندما يتعلق الأمر بتطبيقات الذكاء الصناعي، لذلك يبدو أنها فكرة جيدة أن يستثمر كل شخص في محو أميته الرقمية، ليعرف متى يصبح استخدام تلك الأداة مفيداً»، معتبراً أن «تدريب النماذج اللغوية على التعرف على المعضلات الأخلاقية، وبالتالي الاستجابة بحذر أكبر، يمكن أن يكون حلاً جزئياً للمشكلة، لكنه لن يحلها بشكل قاطع». ويختتم كروغل أن «المواقف المحتملة التي نرغب في كثير من الأحيان في الحصول على المشورة بشأنها متنوعة للغاية، وغالباً ما تكون الجوانب الأخلاقية لمعظم المواقف أكثر دقة، لذلك سيكون من غير المعقول أن نتوقع أن يقوم (تشات جي بي تي) بتحديد كل هذه المواقف بشكل صحيح».
الشرق الاوسط