من خلال استخدام الذكاء الاصطناعي، وتحديدًا التعلم الآلي، يعمل العلماء على تطوير خوارزميات تساعدهم على اتخاذ قرارات بشأن علاج السرطان، وهم يتطلعون إلى أن يتسنى لأجهزة الكمبيوتر تحليل الصور الإشعاعية وتمييز الأورام السرطانية التي ستستجيب على نحو أفضل للعلاج الكيميائي وتلك التي لن تستجيب.

يشير الذكاء الاصطناعي بصفة عامة إلى قدرة أجهزة الكمبيوتر على محاكاة الذكاء البشري والتعلم، ويخلق استخدامه في مجال الطب حماسًا كبيرًا، كما يشيع آمالًا عريضة بشأن سبل تَقَدُّم العلاج.

على الجانب الآخر كتبت البروفسور شارونا هوفمان، أستاذة أخلاقيات علم الأحياء في جامعة كيس ويسترن ريزرف الأمريكية، مقالًا نشره موقع «ذا كونفرزيشن» المدعوم من مؤسسة الأبحاث الوطنية في جنوب أفريقيا وعدة جامعات من الولايات المتحدة ونيجيريا، تسلط فيه الضوء على التحديات والمصاعب القانونية والأخلاقية الكبيرة التي تنطوي على استخدام الذكاء الاصطناعي في المجال الطبي، خاصة المخاوف بشأن الخصوصية والتمييز والأضرار النفسية والعلاقة بين الطبيب والمريض.

وأشارت الباحثة الى أنها سوف تنصح، في مقال ستنشره قريبًا، صناع السياسة بوضع عدد من الضمانات حول الذكاء الاصطناعي، مثلما فعلوا عندما أصبحت الاختبارات الجينية شائعة.

الذكاء الاصطناعي.. مجال يجعل الشركات الكبرى تدفع لك راتب رونالدو!

قد يؤدي إلى التمييز

ينطوي الذكاء الاصطناعي على تحليل كم كبير جدًا من البيانات لتمييز الأنماط، والتي يتم استخدامها بعد ذلك في التنبؤ باحتمال وقوع أحداث مستقبلية.

في الطب يمكن أن تأتي مجموعات البيانات من السجلات الصحية الإلكترونية ومطالبات التأمين الصحي، وكذلك من عدة مصادر مدهشة، ويمكن أن يستفيد الذكاء الاصطناعي من سجلات الشراء وبيانات الدخل والسجلات الجنائية وحتى وسائل التواصل الاجتماعي للحصول على معلومات حول صحة الفرد.

يستخدم الباحثون بالفعل الذكاء الاصطناعي للتنبؤ بالعديد من الحالات الطبية، وتشمل: أمراض القلب والسكتة الدماغية والسكري والتدهور المعرفي، وتعاطي المواد الأفيونية في المستقبل، وحتى الانتحار.

على سبيل المثال: يستخدم موقع التواصل الاجتماعي فيسبوك خوارزمية تقوم بتنبؤات حول اعتزام الانتحار استنادا إلى مشاركات تحتوي على عبارات مثل: «هل أنت بخير؟» مقترنة بـ«وداعًا» و «أرجوك.. لا تفعل هذا».

Embed from Getty Images

وترى شارونا أن هذه القدرة التنبؤية للذكاء الاصطناعي تثير مخاوف أخلاقية كبيرة في مجال الرعاية الصحية، حيث إنه إذا كان الذكاء الاصطناعي يولد تنبؤات حول صحة الشخص، فإن هذه المعلومات يمكن يومًا ما إدراجها في سجلاته الصحية الإلكترونية، ومن ثم يمكن لأي شخص يتاح له الوصول إلى سجلاتك الصحية أن يرى تنبؤات تتعلق بالتدهور المعرفي لديك أو تعاطي المواد الأفيونية.

ويطَّلع العشرات أو حتى المئات من الأطباء والمسؤولين على السجلات الطبية للمرضى أثناء العلاج الطبي، علاوة على ذلك، غالبا ما يسمح المرضى أنفسهم للآخرين بالاطلاع على سجلاتهم: على سبيل المثال عندما يتقدمون لطلب وظيفة أو عمل تأمين على الحياة.

وتقوم شركات صناعة وساطة البيانات مثل «ليكسيس نيكسيس – LexisNexis» و«أكسيوم – Acxiom» أيضا باستخراج البيانات الشخصية والمشاركة في أنشطة الذكاء الاصطناعي. ويمكن لهذه الشركات بعد ذلك بيع التنبؤات الطبية لأي أطراف ثالثة مهتمة، بما في ذلك المسوقون وأرباب العمل، والبنوك، وشركات التأمين على الحياة وغيرها.

ونظرًا لأن هذه الشركات ليست من مزودي الرعاية الصحية أو شركات التأمين، فإن قاعدة الخصوصية في «قانون إمكانية نقل التأمين الصحي والمساءلة – HIPAA» لا تنطبق عليهم. لذلك، لا يتعين عليهم أن يطلبوا من المرضى تصريحًا للحصول على معلوماتهم ويمكنهم الكشف عنها بحرية.

وتخلص الكاتبة إلى أن مثل هذا الكشف يمكن أن يؤدي إلى التمييز، فأرباب العمل، على سبيل المثال، ينصب اهتمامهم على العمال الذين يتمتعون بصحة جيدة ومنتجين، علاوة على قلة غيابهم من العمل وانخفاض تكاليف رعايتهم الطبية.

وإذا كانوا يعتقدون أن بعض المتقدمين للعمل لديهم سيصابون بالأمراض في المستقبل؛ فمن المرجح أن يرفضوهم، وقد يتخذ المقرضون وملاك العقارات وشركات التأمين على الحياة وغيرها قرارات مماثلة بشأن الأفراد بناء على تنبؤات الذكاء الاصطناعي.

ولا يحظر «قانون الأمريكيين ذوي الإعاقة» التمييز على أساس المشاكل الطبية المستقبلية، بل ينطبق فحسب على الأمراض الحالية والسابقة.

استجابة للاختبارات الجينية، سن الكونجرس قانون عدم التمييز على أساس المعلومات الجينية، ويحظر هذا القانون على أصحاب العمل وشركات التأمين الصحي النظر في المعلومات الجينية واتخاذ القرارات بناء على الافتراضات ذات الصلة حول الظروف الصحية للناس في المستقبل. ولا يوجد قانون يفرض حظرا مماثلا فيما يتعلق ببيانات التنبؤ غير الجينية.

الأضرار النفسية 

يمكن أن يؤدي التنبؤ الصحي للذكاء الاصطناعي أيضًا إلى ضرر نفسي. على سبيل المثال، يمكن أن يصاب العديد من الأشخاص بالصدمة إذا علموا أنهم من المحتمل أن يعانوا من التدهور المعرفي في وقت لاحق في الحياة.

ويمكن أن يحصل الأفراد على توقعات صحية مباشرة من الكيانات التجارية التي اشترت البيانات الخاصة بهم، ويمكنك تخيل الحصول على أنباء بأنك عرضة لخطر الإصابة بالخرف من خلال إعلان إلكتروني يحثك على شراء منتجات لتقوية الذاكرة.

حول عقلك إلى «كمبيوتر».. 10 حيل ستمكنك من التعلم بشكل أسرع

عندما يتعلق الأمر بالاختبارات الجينية، يُنصح المرضى بالتماس المشورة الخاصة بالجينات حتى يتسنى لهم اتخاذ قرار بناء على دراسة فيما إذا كان يتعين اختبارهم وكذلك فهم نتائج الاختبار بشكل أفضل. على النقيض من ذلك، ليس لدينا مستشارون في مجال الذكاء الاصطناعي يقدمون مثل تلك الخدمات للمرضى.

وتشير الباحثة إلى مبعث قلق آخر يتعلق بالعلاقة بين الطبيب والمريض؛ هل يقلل الذكاء الاصطناعي من دور الأطباء؟ هل ستكون أجهزة الكمبيوتر هي التي تقوم بالتنبؤات والتشخيص واقتراحات العلاج، بحيث يقوم الأطباء ببساطة بتنفيذ تعليمات أجهزة الكمبيوتر؟ كيف سيكون شعور المرضى تجاه أطبائهم إذا كان لأجهزة الكمبيوتر دور أكبر في اتخاذ القرارات الطبية؟.

ويفاقم من هذه المخاوف حقيقة أن تنبؤات الذكاء الاصطناعي أبعد ما تكون عن الوقوع في الخطأ حيث يمكن أن تسهم عوامل كثيرة في الأخطاء، إذا كانت البيانات المستخدمة لتطوير خوارزمية هي بيانات معيبة مثل الاعتماد على سجلات طبية تحتوي على أخطاء، فإن ناتج الخوارزمية سيكون غير صحيح. لذلك، قد يعاني المرضى من التمييز أو الأذى النفسي عندما يكونون في الواقع غير معرضين لخطر الأمراض المتوقعة.

دعوة لتوخي الحذر  

ما الذي يمكن فعله لحماية الجمهور الأمريكي؟ لقد دفعت الباحثة في أعمالها السابقة كما تقول بضرورة توسيع قاعدة الخصوصية في قانون إمكانية نقل التأمين الصحي والمساءلة بحيث تغطي أي شخص يتعامل مع المعلومات الصحية من أجل الأغراض التجارية.

ويجب ألا تنطبق ضمانات حماية الخصوصية على مزودي الرعاية الصحية وشركات التأمين فحسب، بل أيضًا على المؤسسات التجارية. لقد دفعت أيضًا بأن على الكونجرس تعديل قانون الأمريكيين ذوي الإعاقة لحظر التمييز بناء على توقعات الأمراض المستقبلية.

وتنصح الباحثة بتوخي الحذر، وترى أنه يجب على الأطباء الذين يزودون المرضى بتنبؤات الذكاء الاصطناعي التأكد من وجود معرفة شاملة لديهم بشأن إيجابيات وسلبيات مثل تلك التوقعات. وينبغي على الخبراء تقديم المشورة للمرضى حول الذكاء الاصطناعي مثلما يفعل المهنيون المدربون بشأن الاختبارات الجينية.

ويختم المقال بالقول: آفاق الذكاء الاصطناعي يمكن أن تبعث الرهبة والخوف في قلوب الناس. ومع ذلك، لكي نضمن أن الذكاء الاصطناعي يعزز رفاهية المرضى حقيقة، يجب على الأطباء والباحثين وصانعي السياسات إدراك مخاطره والمضي قدمًا بحذر.

حينما يرسم الروبوت لوحة ويكتب شعرًا.. هل ينافس الذكاء الاصطناعي إبداعات البشر؟

هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».

عرض التعليقات
تحميل المزيد