متى تصبح التكنولوجيا التنبؤية غير أخلاقية؟
تطبيق التكنولوجيا التنبؤية في مجالات الحياة اليومية المختلفة، ينطوي على تهديدات كبرى للخصوصية، والمشكلة أن القوانين الحالية لا يمكنها وضع حدود واضحة أو تعريفات لا لبس فيها للتعامل مع مثل هذه التقنيات.
فما بات يُعرف بـ التعلم الآلي يمكنه أن يكشف الكثير من المعلومات المتعلقة بك، من ضمنها المعلومات الخاصة والحساسة، فعلى سبيل المثال يمكنه أن يتنبأ ما إن كنت ستستقيل من وظيفتك خلال الفترة المقبلة.
ويمكن للباحثين التنبؤ بالعِرق مثلاً وبأمور أخرى، استنادًا إلى الإعجابات على فيسبوك، ويستخدم المسؤولون في الصين نظام التعرف على الأوجه للتعرف على أقلية الأويغور وتتبعهم.
والسؤال المهم هنا، هل تعرف الآلات بالفعل كل هذه الأمور عنك؟ أم أنها تقوم بتخمينات مستنيرة؟ وإن كانت هذه الآلات تستنتج ذلك، تمامًا كما قد يستنتج أي إنسان معلومات عنك، فهل هناك ما يجعل مهاراتها «غير أخلاقية»؟ وهل يمكنها تصنيف سلوكها هذا كتعدٍ على الخصوصيات والحريات الشخصية؟.
ما هي التكنولوجيا التنبؤية وكيف تعمل؟
التكنولوجيا التنبؤية هي مجموعة من الأدوات القادرة على اكتشاف وتحليل الأنماط في البيانات، بحيث يمكن استخدام السلوك السابق للتنبؤ بالسلوك المحتمل في المستقبل، هذه التقنيات تشمل:
- التنقيب عن البيانات
- النمذجة
- المحاكاة
ويتم تطبيق التكنولوجيا التنبؤية في مجالات عديدة مثل:
- دراسة أنماط الطقس
- التسويق
- الأعمال
- توقع سلوكيات بعض المجموعات العرقية أو ذوي الاهتمامات المشتركة
ولأن التكنولوجيا هذه تبحث وتحلل وتربط وتتوقع وتكتشف، فهناك إمكانية واسعة لتجاوز الحدود الأخلاقية، صحيح أنها تقنية مفيدة وتساعد في مختلف المجالات، لكنها أيضًا سيف ذو حدين، إذ يمكنها أن تتحول إلى تعدٍ صارخ على خصوصياتنا جميعنا.
كشف معلومات حساسة وبناء تنبؤات مستقبلية عليها
في عام ٢٠١٢، نشرت نيويورك تايمز تقريرًا عن استخدام متاجر «تارغيت» للخوارزميات التنبؤية، لتوقع ما إن كانت النساء اللواتي يزرن المتجر حوامل.
ما حصل وتم اعتبارها كخرق تام وكلي للخصوصية، هو تكهن التكنولوجيا هذه بأن فتاة مراهقة حامل، فتم إرسال كوبونات لمستلزمات الأطفال إلى منزل الفتاة، وبهذه الطريقة استنتج الوالد بأن ابنته حامل.
في هذه الحالة، ما حصل هو انتهاك صريح للخصوصية، فقسم التسويق في الشركة افترض -وفق توقعات التكنولوجيا التنبؤية- أن الفتاة المشار إليها «حامل»، بينما هي لم تكن كذلك، وبالتالي قدم معلومات طبية حساسة، وتعامل مع معلومات لا شأن له بها. فالمعلومات الطبية، في هذه الحالة، سرية ويسمح فقط للعاملين في نظام الرعاية الصحية معرفتها، والاطلاع عليها والأهم من ذلك هو حمايتها.
اقرأ أيضا: شركات ناشئة في الذكاء الاصطناعي ستحقق نجاحات ساحقة في عالم ما بعد كورونا
لكن الأمر لا يتوقف عند كشف معلومات حساسة، بل يتجاوزه إلى تداعيات سلبية محتملة على حياة الشخص، فلو افترضنا مثلاً أن التكنولوجيا التنبؤية توقعت بأن امرأة ما، تعاني من بعض المشاكل في عملها، أو لم تقم بتجديد تأمينها، حامل، وتم نشر هذه المعلومات أو تمكنت جهة ما من الوصول إلى هذه المعلومات وباتت معروفة، فهذه المرأة يمكنها أن تخسر وظيفتها وقد يتطلب تجديدها لعقد التأمين مبالغ أكبر، وبالتالي سيتم إلحاق الضرر بها.
المشكلة الأساسية هنا لا تتعلق بسوء التعامل مع البيانات أو بتسريبها أو سرقتها، بل تتمحور حول توليد البيانات الجديدة القائمة على اكتشاف حقائق عن الناس من خلال التنبؤ والتي تعتبر معلومات لم تقدم طوعًا من الأشخاص المعنيين.
والمثير للقلق في كل هذه المعادلة، هو أن الشركات تستنتج هذه المعلومات من بيانات «غير ضارة» موجودة، لذا فالمسار برمته مثير للقلق وغير أخلاقي، لأنه لا يستنتج فقط معلومات خاصة عن الأشخاص، بل يبني على هذه المعلومات تنبؤات مستقبلية.
«لا أخلاقية» التنبؤات الدقيقة وغير الدقيقة
من المفارقة أننا نواجه «لا أخلاقية» كيفما نظرنا إلى هذه التكنولوجيا التنبؤية، فإن تنبأت بشكل خاطئ وبنت مستقبلاً على هذه التنبؤات المغلوطة، فهي تلحق الضرر بالجهة المعنية، وإن تنبأت بشكل دقيق وصحيح فهي أيضًا تلحق الضرر بالجهة المعنية سواء بشكل مباشر أو غير مباشر.
لو افترضنا أن النموذج التنبؤي الذي تعتمده شركة أو جهة ما لم يكن دقيقًا، فسيظل هناك ثقة في التوقعات لمجموعة معينة ومحددة في المجالات المختلفة، سواء نية الشخص بترك عمله أو حالته الصحية وغيرها من الأمور.
والسبب هو أنه في كل مكان وفي كل مؤسسة هناك مجموعات صغيرة، يسهل التنبؤ بما ستقوم به أو بما تعاني منه، ولكن مع توسع نطاق أنظمة العمل، وقتها ستكون التنبؤات أقل دقة، أو تستلزم كم أكبر من البيانات لتحليلها.
التكنولوجيا التنبؤية هل تلحق بنا الأضرار؟.. أمثلة على ذلك
يسهل تحديد الأسباب التي تجعل أي شخص كان يرغب في عدم الكشف عن المعلومات المستنتجة بناء على تطبيق التكنولوجيا التنبؤية، فهي في نهاية المطاف «معلومات خاصة».
ففي العام ٢٠١٣، أجرت إحدى الشركات تحليلاً تنبؤيًا لأكثر من ٣٠٠ ألف عامل لديها، لمعرفة من هم الأكثر ميلاً للاستقالة، ثم تم تسليم النتائج إلى مديري الأقسام، وبطبيعة الحال، إن كنت تخطط لترك عملك، فمديرك هو آخر شخص تريده أن يعرف ذلك قبل أن تصبح الأمور رسمية.
اقرأ أيضا: جارتنر ترصد في تقريرها الجديد "هايب سايكل" 4 توجهات تقود الذكاء الاصطناعي
مثال آخر عن تجاوز حدود الخصوصية، هو ما قامت به إحدى الشركات لتحديد معدل خسارة قسم الموارد البشرية للعاملين فيه، وخلال وضع النموذج التنبؤي تمت إضافة «الموت» إلى الإحتمالات بحكم أن موت شخص ما يعني تركه لعمله!.
والنتيجة هي أن جميع العاملين في قسم الموارد البشرية -من بينهم المديرين- رفضوا الاطلاع على مضمون التقرير، لأنهم وبكل بساطة لا يريدون معرفة أي زميل لهم «يتوقع» له أن يموت قريبًا.
في هذه الحالة، وبغض النظر عن دقة أو عدم دقة التنبؤ، فإن النتائج موجودة والمعلومات متوفرة، وهي تطال في هذه الحالة مثلاً، جزئية حساسة ومخيفة لعدد كبير من البشر، فالشركة لم تسأل الموظف ما إن كان يريد معرفة «موعد تقريبي» لموته، بل قررت بأنها تريد أن تعرف وقامت بذلك.
التكنولوجيا التنبؤية وضبابية حدود القانون
على الرغم من أن المعنيين والمسؤولين الذين يتعاملون مع هذه النماذج التنبؤية، يحرصون على العمل ضمن إطار قانوني، لكن الامتثال القانوني لا يبدو كافيًا، خصوصًا حين يتعلق الأمر بتحليل بيانات الأشخاص.
فالأنظمة القانونية ما تزال «غير مؤهلة» بما يكفي للدفاع عن خصوصية الموظفين، في ظل جمع البيانات المتزايد وتحليلها، كما أن بعض القوانين مثل تلك التي حددتها دول الاتحاد الأوروبي، تُرغم المؤسسات أو المنظمات على إبلاغ الموظفين عن الأسباب التي تقف خلف جميع البيانات عنهم، وكيفية معالجتها ولأي أغراض، وتمنح الشخص المعني الحق في الوصول إلى معلومات وتصحيحها وحتى حذفها.
لكن هذا الأمر موجود فقط في دول الاتحاد الأوروبي، وحتى ضمن إطار هذه الدول، هناك هامش واسع جدًا للاستخدام غير القانوني للمعلومات رغم جمعها بشكل قانوني.
التكنولوجيا التنبؤية في مجال التسويق: التمييز هو الأساس
الباحثون أظهروا وبشكل متكرر بأن النماذج التنبؤية يمكن أن تكشف وتميز السمات الشخصية للأفراد مثل العرق والجنس وغيرها، بالاستناد إلى الاعجابات على فيسبوك.
هذه معلومات قيمة جدًا للشركات التي تسعى إلى تسويق منتجاتها وخدماتها، وعالم التسويق عبر الإنترنت، كما تصفه البروفيسورة لاتانيا سويني من جامعة هارفرد «قائم على التمييز»، فالأمهات مثلاً لا يرغبن برؤية إعلانات صنارات صيد السمك، بينما الصياد لا يريد رؤية إعلانات الحفاضات وهكذا.
حتى الآن تبدو التكنولوجيا التنبؤية وكأنها تخدم الأشخاص، فهي توفر لهم ما يريدونه ويرغبون به وحتى ما يحتاجون إليه، فمتى يتجاوز هذا التمييز الحدود؟ وينتقل من استهداف الزبائن إلى التأثير بشكل سلبي على مجموعات كبيرة من الأشخاص؟
اقرأ أيضًا: الذكاء الاصطناعي يعيد لممثل عالمي صوته بعد فقده للأبد (فيديو)
الإجابة تتضح في نتائج دراسة أجرتها «سويني» بأنه عند البحث عبر محرك جوجل عن أسماء يعتمدها أصحاب البشرة السمراء أو تبدو وكأنها تعود لشخص من ذوي البشرة الداكنة، فإن الإعلانات التي تظهر تلمح إلى أن الشخص يملك تاريخًا إجراميًا.
ثم نصل إلى تكنولوجيا التعرف على الوجوه وتتبع الأشخاص، وتحديد من ينتمي إلى أي مجموعة وما الذي سيقوم به لاحقًا، وفي كل هذه الحالات يتم تعريف الفرد وفق جزئية محددة، وبمجرد تحديده ضمن المجموعة تلك، فستتم معاملته بشكل مختلف.
لذا فإن تنفيذ المعاملة التفاضلية لمجموعة عرقية بالاستناد إلى التكنولوجيا التنبؤية، يرفع مستوى المخاطر إلى معدلات مرعبة وجديدة.
إنه تحدٍ حقيقي لرسم الخط الذي تقف عنده الأهداف التنبؤية، وتحديد متى يصبح التعلم الآلي غير أخلاقي، والصعوبة الأكبر تكمن في تحديد أي أهداف مشروعة وأي غير مشروعة.
ولكن بالحد الأدنى، من الأهمية بمكان التيقظ ومعرفة متى يخدم التعلم الآلي أهدافاً غير أخلاقية أو متى يخلق بيانات جديدة يجب التعامل معها بحذر وحرص.