ما الذي يجب أن نخشاه من الذكاء الاصطناعي في الطب؟
هل تعتبر التهديدات المرتبطة بالذكاء الاصطناعي بنفس القدر من السوء الذي يخشاه البعض، أم هل يكون الذكاء الاصطناعي حميداً نسبياً؟ هل يمكن أن يكون الجواب في مكانٍ ما بينهما؟
إن وجهات النظر حول الذكاء الاصطناعي كثيرة. وسواء كان ذلك في الطب أو الأمن أو التعليم، فإن التطبيقات الجديدة التي تبحث عن ميزة الذكاء الاصطناعي تستمر في النمو. ولقد أدى هذا إلى ظهور الدعوات المنادية بضبط النفس ووضع التنظيمات الحقوقية بنيّة حسنة، أو على أقل تقدير إبطاء النمو والانتشار.
الذكاء الاصطناعي في الطب
وللتخفيف عن بعض هذه المخاوف، ينبغي النظر في أحد المجالات التي يثبت فيها الذكاء الاصطناعي مقدرته على تقديم فوائد وإمكانات كبيرة: الطب وتقديم الرعاية الصحية.
يسلط مقال نُشر مؤخراً في «ميدسكيب ميديكال نيوز» الضوء على الدراسات التي تمنح الذكاء الاصطناعي ميزة في تقديم رعاية طبية أكثر دقة وموثوقية. وقد جادل إريك توبول، مؤسس ومدير معهد «سكريبس» للأبحاث الانتقالية، بأن مستقبل الطب يكمن في الذكاء الاصطناعي، مع فوائد مثل الإقلال من الأخطاء الطبية وتقديم تشخيصات وخطط علاجية أكثر قوة.
قد يدفع البعض بأن الذكاء الاصطناعي ليس له مشاعر، وبالتالي لا يمكن أن يحل محل الوظائف التي تتطلب التفاعلات الإنسانية والتعاطف والحساسية. وفي حين أنه من الصحيح القول إن الذكاء الاصطناعي ليس لديه مشاعر أو أخلاقيات، فإن الأنظمة الطبية للذكاء الاصطناعي لا تحتاج إلى الشعور؛ لأن مرضاها لديهم ذلك. وما يريده المرضى ويحتاجونه بالتأكيد من أطبائهم هو وقتهم واهتمامهم، الأمر الذي يستلزم الصبر، وهو جانب تمتلكه أنظمة الذكاء الاصطناعي بكثرة. وفي الواقع، قد يفسر البعض الصبر على أنه بديل عن التعاطف الإنساني والحساسية، في حين أن عدم الصبر قد يفسر على أنه نقيض لهذه الخصائص البشرية.
الشركات والذكاء الاصطناعي
مع شراء الشركات أكثر فأكثر للمؤسسات الطبية، فإن لها تأثيراً قوياً في نهاية المطاف على الممارسات الطبية لتلك المؤسسات، وعلى تقديم خدمات الرعاية الصحية. وتعتبر الشركات مصالح المساهمين والمستثمرين فيها هدفها الأسمى.
ولهذا يتم الضغط على الأطباء ومقدمي الرعاية الصحية للحصول على المزيد من أرباح الرعاية الصحية خلال فترات زمنية ضيقة. وسيوفر ذلك فرصة لمزيد من التشخيص الخاطئ وضعف تقديم الرعاية الصحية.
آمال ومخاطر
• آمال واعدة: يمكن للنظم الطبية للذكاء الاصطناعي معالجة المعلومات بسرعة لا نهائية أكثر من أي طبيب بشري. كما أن الأنظمة الطبية التي تعتمد على الذكاء الاصطناعي لديها إمكانية الوصول إلى البيانات والمعرفة الطبية. وقد استطاعت استيعابها لمرات عديدة أكثر من الأطباء البشريين ومقدمي الخدمات السريرية.
وهذا يعني أن النظام الطبي للذكاء الاصطناعي قد يكتشف حالة غير عادية يمكن أن تسرع التشخيص، وتحديد خطة علاج مناسبة وإنقاذ الأرواح - وكل ذلك بتكلفة أقل - بل إنه قد يُحدد حالة جديدة من خلال القضاء بشكل شامل على إمكانية الإصابة بجميع الأمراض المعروفة المحتملة، ما يخلق معرفة جديدة بصورة فعالة من خلال عملية الاستبعاد.
• قصور ومخاطر: مع ذلك، فإن النظم الطبية للذكاء الاصطناعي تعاني من أوجه قصور ومخاطر.
إن الكم الهائل من البيانات التي تُستخدم لتدريب الأنظمة الطبية العاملة في مجال الذكاء الاصطناعي كان مصدره الأطباء، ومؤسسات الرعاية الصحية المرتكزة على البشر.
وإذا ما حدث أن غرقت مصادر البيانات البشرية في بحر من البيانات التي يولدها الذكاء الاصطناعي نفسه، فقد نجد في مرحلةٍ ما، أن أنظمة الذكاء الاصطناعي الطبية سوف تعتمد بالمقام الأول على البيانات المولدة من قبلها داخل مؤسسات الرعاية الطبية. والسؤال هنا: هل يؤدي هذا إلى الإضرار بجودة الرعاية التي تقدمها النظم الطبية للذكاء الاصطناعي؟
وهناك الفهم الأساسي لكيفية عمل أنظمة الذكاء الاصطناعي الطبية؛ إذ تستند الكثير من المخرجات إلى الملاحظة على الرابطات الإحصائية المعقدة. ولا يوجد إلا القليل من العاملين في المجال الطبي، إن وُجدوا، الذين يفهمون هذه النماذج، وكيف تُستخدم هذه النماذج البيانات وكيفية الحصول على نواتجها.
بطبيعة الحال، يستند قسم كبير من الطب السريري إلى الأدلة، التي تستند بدورها إلى تجارب سريرية أو تجارب رصدية ممتدة. وعند النظر إليها في هذا السياق، فإن الأنظمة الطبية التي تعتمد الذكاء الاصطناعي تتبنى نهجاً مماثلاً، في ظل الفترة الزمنية اللازمة لاستخلاص رؤيتها بشكل مركز.
البيانات المتحيزة وخرق الخصوصية
• تحيّز البيانات: هناك قضايا تحيز البيانات والخصوصية. والبيانات الطبية متحيزة بطبيعتها؛ لأنها تأتي من عالم متحيز.
إن تنظيف مثل هذه البيانات من شأنه أن يغير البيانات نفسها، مع عواقب غير متوقعة قد تسفر عن تحيز أنظمة الذكاء الاصطناعي الطبية أيضاً بطرق غير متوقعة، بل قد يعرض هذا للخطر فاعلية مثل هذه الأنظمة. وفي الأمد القريب، إذا كان لنا أن نتعامل مع قضايا تحيز البيانات، فلا بد من التعامل مع مخرجاتها؛ أي تماماً كما تتعامل معها الأنظمة البشرية اليوم. أما الهدف على المدى الطويل فأكثر تعقيداً، وهو أن تتخلص نظم الذكاء الاصطناعي ذاتها من هذه التحيزات، كما نقول، بطريقة غير متحيزة.
* أستاذ علوم الكومبيوتر،
وطبيبة الصحة العامة، بجامعة إلينوي
في أوربانا-شامبين... خدمات «تريبيون ميديا»• خصوصية البيانات: المسألة الأخرى المثيرة للقلق هي خصوصية البيانات، التي تبدو مبالغاً فيها وكثيراً ما تتضخم، الأمر الذي يؤجج المخاوف. ولا بد من أخذ ضمانات الخصوصية في الحسبان دوماً. ولكن لا توجد طرق مضمونة لضمان الخصوصية العامة والكاملة، فكثير من الناس يضحون من دون قصد بالخصوصية الشخصية من أجل الراحة الشخصية، وغالباً ما يكون ذلك من غير تفكير.
وكثيراً ما يخلط الناس بين الخصوصية الشخصية والسيطرة الشخصية على بياناتهم. ومع ذلك فإن السماح بالوصول إلى بياناتنا الشخصية بموافقتنا، كما نفعل عندما نستخدم وسائل التواصل الاجتماعي، لا يبقينا أكثر أماناً مما لو كان الآخرون يصلون إلى بياناتنا من دون علم منا.
تحتاج النظم الطبية للذكاء الاصطناعي إلى بيانات مجهولة المصدر كمدخلات؛ لذا فإن حماية سلامة عملية إخفاء الهوية هي ما نستطيع أن نتوقعه بشكل معقول.
إن كل ما لا يمكن فهمه بسهولة يمكن أن يثير الخوف... والذكاء الاصطناعي مؤهل لذلك بالتأكيد.
وفي عالم مليء بعدم اليقين والمخاطر، تقدم أنظمة الذكاء الاصطناعي بكافة أنواعها فوائد هائلة. ومع ذلك فإن حالة عدم اليقين والمخاطر المحيطة بنا لن تزول بأعجوبة مع الذكاء الاصطناعي؛ لذا فإن الحيطة والحذر مطلوبان.
الشرق الاوسط