انطلاقًا من دوره في دعم التطوير المستدام للقطاع، أوضح الاتحاد رؤيته من خلال الالتزام بالمعايير الأخلاقية في دورة حياة نماذج الذكاء الاصطناعي، كما يشدد الاتحاد على ضرورة أن تلتزم شركات التأمين بمعايير أخلاقية واضحة في كافة مراحل تطوير وتشغيل نماذج الذكاء الاصطناعي، بداية من جمع البيانات، مرورًا بمرحلة التدريب والاختبار، وصولًا إلى التطبيق الفعلي. ويُعد دمج مبادئ العدالة، والشفافية، وقابلية الشرح جزءًا أساسيًا من مسؤوليات الشركات تجاه العملاء، فضلا عن مكافحة التحيّز والتمييز.

يرى الاتحاد أن معالجة مشكلة التحيّز في البيانات ونتائج النماذج تُعدّ أولوية قصوى، خاصة في المنتجات التي تؤثر بشكل مباشر على الأفراد مثل تأمينات الحياة والتأمين الطبي.

ويوصي بضرورة إجراء اختبارات دورية لاكتشاف أي ممارسات قد تؤدي إلى تمييز غير مبرر، وضمان أن تكون القرارات التأمينية مبنية على أسس مهنية وموضوعية فقط.

كما توضح رؤية اتحاد شركات التأمين على  حماية البيانات وخصوصية العملاء، ويشدد  على ضرورة التزام الشركات بالقوانين المنظمة لحماية البيانات الشخصية، واعتماد أفضل الممارسات المتعلقة بحوكمة البيانات، واستخدامها وفق شروط واضحة ومعلنة.

ويؤكد الاتحاد أن حماية بيانات العملاء ليست مجرد التزام قانوني، بل عنصر رئيسي في بناء الثقة وتعزيز العلاقة بين شركات التأمين والمؤمَّنين.

وأكد الاتحاد أن نماذج تعلم الآلة أصبحت قادرة على تحليل مجموعات ضخمة من البيانات لتسعير المخاطر بدقة أكبر، مما يقلل من الاعتماد على العمل اليدوي ويُحسن الاتساق في إجراءات الاكتتاب.

ولفت إلى أن الذكاء الاصطناعي يُسهم في تسريع معالجة المطالبات عبر استخدام التعرّف على الصور والتحليلات التنبؤية، وهو ما يرفع من جودة الخدمة ويقلل أوقات الانتظار.

وأوضح الاتحاد أن النماذج الذكية تساعد في الكشف المبكر عن الأنماط والسلوكيات المشبوهة التي قد تشير إلى عمليات احتيال، مما يعزز حماية الشركات والعملاء.

وتابع أن روبوتات الدردشة والمساعدين الافتراضيين يقدمون دعمًا متواصلًا على مدار الساعة، ويوفرون تجارب أكثر سلاسة وتخصيصًا للعملاء.

وأكد أن الذكاء الاصطناعي يُسهم في التنبؤ بالحوادث والأضرار الصحية أو المادية قبل وقوعها، مما يساعد الشركات على تقديم حلول وقائية وتوصيات مبكرة.

وأشار إلى أن هذه التطبيقات، رغم فوائدها الكبيرة، تفرض تحديات أخلاقية تتطلب تقييمًا دقيقًا لضمان عدم الإضرار بحقوق العملاء أو الإخلال بمتطلبات العدالة.

التحديات الأخلاقية لاستخدام الذكاء الاصطناعي في صناعة التأمين

حذّر الاتحاد من إمكانية تعزيز أنظمة الذكاء الاصطناعي للتحيزات الموجودة في البيانات التاريخية، مشيرًا إلى أن ذلك قد يؤدي إلى فرض أقساط أعلى على فئات معينة أو رفض تغطيات بناءً على نماذج تقييم مخاطر غير عادلة.

وشدد على أن العدالة تمثل ركيزة أساسية في التأمين، وأي تحيزات قد تُهدد مبادئ تكافؤ الفرص.

وأوضح الاتحاد أن العديد من نماذج الذكاء الاصطناعي تُعد “صناديق سوداء” يصعب تفسير قراراتها، الأمر الذي يثير تساؤلات حول آليات تسعير الأقساط أو تسوية المطالبات.

ولفت إلى أن غياب الشفافية قد يؤدي إلى تراجع الثقة، وقد يتعارض مع المتطلبات التنظيمية في بعض الدول.

وأكد أن الذكاء الاصطناعي يعتمد على كميات كبيرة من البيانات الحساسة، مشيرًا إلى مخاطر جمع البيانات دون موافقة واضحة أو مشاركتها مع أطراف ثالثة.

وأوضح أن استخدام مصادر غير تقليدية مثل التطبيقات والأجهزة القابلة للارتداء يطرح تساؤلات متعلقة بالعدالة وخصوصية الأفراد.

وأشار إلى أن الاعتماد الكامل على الأنظمة الآلية قد يقلل من دور العنصر البشري، مؤكدًا أن القرارات التأمينية تحتاج غالبًا إلى قدر من التعاطف والمرونة لا يمكن للآلات توفيره.

ولفت إلى مخاطر غياب المساءلة في حال وقوع أخطاء ناتجة عن التشغيل الآلي.

وأكد أن بيانات التأمين الحساسة تجعل القطاع هدفًا مغريًا للتهديدات السيبرانية، مشيرًا إلى ضرورة حماية نماذج الذكاء الاصطناعي من الاختراقات والهجمات التي قد تؤثر على سلامة العملاء والثقة بالسوق.

وناقش الاتحاد التحديات المرتبطة بتسعير الوثائق بناءً على السلوك المتوقع مستقبلًا، مشيرًا إلى أن هذا النهج قد يخلق فئات “غير قابلة للتأمين”.

وشدد على ضرورة إيجاد توازن دقيق بين التسعير العادل والاعتبارات المجتمعية.

شاركها.