طب وصحة

“الصحة العالمية” تقدم توصيات بشأن الاستخدام الطبي للذكاء الاصطناعي

اعتبرت منظمة الصحة العالمية،أمس الخميس أن”أدوات الذكاء الاصطناعي يمكن أن تحدث تحولا” في العلاجات الطبية، لكنها حذرت من أن تسارع انتشار البرامج الصحية الرقمية القائمة على هذه التكنولوجيا قد يضر المرضى إذا لم يتوافر “فهم كامل” لها.

ولاحظت المنظمة في هذا المنشور الهادف إلى”تحديد المبادئ الرئيسية التي يمكن للحكومات والسلطات التنظيمية اتباعها في وضع إرشادات جديدة أو تكييف الإرشادات القائمة بشأن الذكاء الاصطناعي، أن “أدوات الذكاء الاصطناعي يمكن أن تحدث تحولا في قطاع الصحة في ظل تزايد البيانات المتاحة بشأن الرعاية الصحية والتقدم السريع في تقنيات التحليل – سواء تلك المتعلقة بالتعلم الآلي أو تلك القائمة على المنطق أو الإحصائية”.

وأكدت المنظمة أنها “تدرك الإمكانات التي ينطوي عليها الذكاء الاصطناعي من حيث تحسين الحصائل الصحية من خلال تعزيز التجارب السريرية؛ وتحسين التشخيص الطبي والعلاج والرعاية الذاتية والرعاية التي تركز على الشخص؛ وسد مكامن النقص في معارف ومهارات وكفاءات العاملين في مجال الرعاية الصحية”.

وأشارت على سبيل المثال إلى أن “الذكاء الاصطناعي يمكن أن يكون مفيدا في البيئات التي تفتقر إلى أطباء متخصصين، مثلا في تفسير فحوص الشبكية وصور الأشعة وأمور أخرى كثيرة”.

إلا أن “وتيرة نشر تكنولوجيات الذكاء الاصطناعي -بما في ذلك النماذج اللغوية الكبيرة – تتسارع وأحيانا من دون فهم كامل للكيفية التي يمكن أن تشتغل بها، مما قد يفيد أو يضر المستخدمين النهائيين، بمن فيهم أخصائيو الرعاية الصحية والمرضى”.

ونبهت إلى أن “نظم الذكاء الاصطناعي يمكن أن تطلع عند استخدام البيانات الصحية على معلومات شخصية حساسة، مما يستلزم وضع أطر قانونية وتنظيمية متينة لحماية الخصوصية والأمن والسلامة”،

وقال المدير العام للمنظمة الدكتور تيدروس أدهانوم غيبريسوس إن “الذكاء الاصطناعي يحمل تباشير واعدة لقطاع الصحة، ولكنه ينطوي أيضا على تحديات خطيرة، بما في ذلك جمع البيانات بأساليب غير أخلاقية، وتهديدات الأمن السيبراني، وترسيخ التحيزات أو المعلومات المضللة”.

و أضاف أن “هذه الإرشادات الجديدة ستدعم البلدان في تنظيم الذكاء الاصطناعي بفاعلية، وتسخير إمكاناته، سواء في علاج السرطان أو الكشف عن السل، مع تقليل المخاطر إلى أدنى حد”.

وشرحت المنظمة أن “نظم الذكاء الاصطناعي هي نظم معقدة لا تعتمد فقط على الرموز التي أنشئت بها ولكن أيضا على البيانات التي دُربت عليها”.

وشددت على أن “تحسين التنظيم يمكن أن يساعد في إدارة مخاطر ترسيخ الذكاء الاصطناعي للتحيزات في بيانات التدريب”.

وعلى سبيل المثال،”قد يكون من الصعب على نماذج الذكاء الاصطناعي أن تمثل تنوع السكان تمثيلا دقيقا، مما يؤدي إلى التحيزات أو عدم الدقة أو حتى الفشل. وللمساعدة في التخفيف من هذه المخاطر”، بحسب المنظمة،وسعياً إلى الحد من هذه المخاطر، “يمكن استخدام اللوائح لضمان الإبلاغ عن خصائص الأشخاص الذين ظهروا في بيانات التدريب – مثل النوع الاجتماعي والعرق والإثنية – والقصد إلى جعل مجموعات البيانات تمثيلية”، وفق المنشور.

وأوصت المنظمة في وثيقتها بـ”ستة مجالات لتنظيم استخدامات الذكاء الاصطناعي في مجال الصحة”،من بينها “التحقق من صحة البيانات من مصدر خارجي وتوخي”، و”التقييم الدقيق للنظم قبل إصدارها لضمان عدم قيام النظم بتوسيع نطاق انتشار التحيزات والأخطاء”، و”تعزيز التعاون بين الهيئات التنظيمية والمرضى والمتخصصين في الرعاية الصحية وممثلي الصناعة والشركاء الحكوميين”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *