السبت 19 يونيو 2021

الذكاء الاصطناعى.. مخاطر وإشكاليات توظيفه فى الصحافة

أخرى28-12-2020 | 17:54

مع زيادة واتساع استخدام تطبيقات الذكاء الاصطناعى في صناعة الصحافة في دول العالم المتقدمة، واتجاه عدد من المؤسسات الصحفية المصرية للتخطيط لتوظيفه، ليبقى السؤال الجوهري قائماً: كيف سنأتمن آلة بلا روح، بلا ضمير ولا وازع أخلاقي، ولا محرك سوى الأرقام والبيانات على صياغة أخبارنا؟، خاصة مع إدراكنا بقدرة الأخبار على صياغة عقليات الجماهير ومخاوفها وتوجيهها.


وقد ورد في تقريرٍ للبيت الأبيض عام 2016 بشأن مستقبل الذكاء الاصطناعي، أنّه من غير المرجّح للتكنولوجيا أن "تتوصّل إلى ذكاء يمكن تطبيقه على نطاق واسع بشكل يقارن أو يفوق الذكاء البشري" خلال الأعوام العشرين المقبلة.


وتتسم أنظمة الذكاء الاصطناعي التي تشمل أنظمة التعرف على الصور والصوت، بأنها عرضة لنقاط ضعف يمكن استغلالها من قبل المجرمين أو قراصنة تابعين لدولٍ أجنبية، كما يمكن لهذه الأنظمة أن تخطئ كذلك إذ قد تتسبب لوحات الإعلانات على الطرق على سبيل المثال بإرباك المركبات ذاتية القيادة.


وطالب التقرير واضعي السياسات بإنشاء مجموعة من المعايير والقواعد التي يمكن تطبيقها دوليّاً بغرض تطوير أنظمة الذكاء الاصطناعي بشكل آمن، عوضاً عن توقّع أن تقدّم هذه الأنظمة حلولاً لجميع المشاكل. وعلى الرغم من أن التوافق عليها قد يكون أمراً معقّداً، إلا أن هذه المعايير والقواعد قد توفّر طريقة يمكن من خلالها للذكاء الاصطناعي والبشر عيش مستقبل مشترك وآمن.


كما طرحت نينا شيانج، الشريكة المؤسسة لشبكة المال الصينية المستندة إلى الذكاء الاصطناعي، تساؤلاتٍ مشروعة حول مشاكل الأمن والخصوصية المحتملة نتيجة ابتكارات "شينخوا"، مختبر نيمان نقل عن شيانج قولها إن مشروع العقل الإعلامي يثير مخاوف حول الخصوصية وحماية البيانات الشخصية، فربط المشروع الذي تعمل عليه الوكالة الحكومية الأكبر في البلاد، مع منصة تجارية عالمية ضخمة مثل "علي بابا" يشكل مراقبة وإحاطة كاملة بالإنسان في كافة تفاصيل حياته، إذ ستتشكل عين رقمية يمكن لها أن تجمع بياناتٍ من كاميرات مراقبة لا حصر لها موزعة في جميع أنحاء البلاد، من المتوقع أن يصل عددها لنصف مليار كاميرا في السنوات الثلاث المقبلة، ومن المشكوك به إن كان الناس سيعطون الخيار للسماح أو عدم السماح لهذه البرمجيات الذكية بالوصول للبيانات الموجود على أجهزة إنترنت الأشياء، الكاميرات المركبة على لوحات السيارات، محطات رصد تلوث الهواء، والتكنولوجيا القابلة للارتداء.


ودعا بول تشادويك. الصحفي في جريدة الجارديان، إلى إعادة دراسة المعايير الأخلاقية الصحفية التي لم تتغير منذ وقت طويل، وإعادة تصميمها مع ما يتناسب مع هذه الحقبة الانتقالية التي نعيشها. ويقترح تشادويك إضافة شرطٍ صحفي، مثل: “عندما تقوم بتعزيز عملك الصحفي ببرمجيات الذكاء الاصطناعي، عليك أن تتأكد موافقته للمعايير الاخلاقية المهنية، وذلك في إطار مبدأ مهم ينبغى ان نحرص عليه جميعا وهو أن. البرمجية التي "تفكر" مفيدة بشكل متزايد، لكن لا يعني ذلك بالضرورة أنها ستجمع أو تصيغ المعلومات بأخلاقية، فبعض البيانات التي يتم صياغتها من قبل البرمجيات يمكن أن تكون ملوثة بأنواع مختلفة من التحيزات العرقية أو الجنسية، نظراً للافتراضات التي قد يكون مبرمجها البشري دربها عليها بقصدٍ أو بدون. ولعل أفضل الحلول للمواجهة الخطر المترتب على مشكلة الثقة والمصداقية في الأخبار التي سينتجها الروبوت، هو الشفافية. الشفافية بخصوص الآليات التي تستخدم بها كل منصة إعلامية الذكاء الاصطناعي، والإشارة بشكل واضح للجزئيات التي قام الروبوت بإعدادها في القص


في تقرير للمنتدى الاقتصادي العالمي مطلع 2018، لخص باحثون مجموعة تحدياتٍ تقنية تقف في وجه توظيف الذكاء الاصطناعي بشكل أكثر عمقًا في الصحافة، منها وغيرها من الأنشطة الإبداعية، عدة تحديات من المهم مواجهتها، في مقدمتها مجموعة التحديات التقنية التالية:


- توفر البيانات: 

يعمل التعلم الآلي بشكل أفضل عندما تتوفر بيانات كافية لالتقاط الأنماط والتعلم منها وتحسين النظام وفقًا لذلك. في حين يمكن للبشر أن يقارنوا التجارب ويستنبطون الاستجابات المثلى من خلال عدد قليل من التجارب المماثلة، فإن الذكاء الاصطناعى يتطلب كميات كبيرة من البيانات لمعرفة ما يجب أن تكون عليه الاستجابة الصحيحة. 


بدون توفر البيانات، تكون قدرة الذكاء الاصطناعي محدودة. يقول تاكويا كيتاجاوا، كبير مسؤولي استراتيجية البيانات في Rakuten: "للتعلم العميق للعمل بشكل جيد، قد تحتاج إلى ملايين نقاط البيانات".


- فهم البيانات غير المنظمة: 

تواجه الذكاء الاصطناعى أيضًا صعوبة في البيانات غير المنظمة. يمكن ترجمة النتائج المجدولة للألعاب الرياضية أو بيانات الأرباح بسهولة إلى مقالات باستخدام قوالب موحدة، ولكن إذا أريد أن تصبح الذكاء الاصطناعي أكثر انتشارًا في الاقتصاد الإبداعي، فسوف تحتاج إلى تسخير وتوليف البيانات غير المهيكلة، التي تشكل معظم البيانات المتاحة اليوم.


- قلة الوعي الذاتي: 

لا تستطيع الذكاء الاصطناعى شرح مخرجاتها: لماذا كتبت ما فعلت، أو كيف وصلت إلى هناك. لفهم كيفية ترجمة البيانات إلى قصة معينة، يجب التفكير في تصميم الذكاء الاصطناعي ليكون مسؤولاً أمام المستهلكين. قد تكون إحدى الطرق لتحقيق ذلك -خاصة مع المحتوى الذي يحتوي على الكثير من البيانات حيث تتمتع الذكاء الاصطناعي بميزة طبيعية- عن طريق السماح للمستهلكين بضبط معلمات الخوارزمية لمعرفة كيف تتغير النتائج. عند تطبيقها على الأخبار، يجدر التفكير فيما إذا كانت هناك حاجة إلى تطوير معايير صحفية جديدة حتى يعرف المستخدمون ما إذا كانت القصة مؤلفة من جهاز أو إنسان.


- التحقق من الأصالة: 

لا يمكن للذكاء الاصطناعى التمييز بين ما إذا كانت المدخلات التي تتلقاها دقيقة أو غير دقيقة. يمكن أن يؤدي ذلك إلى مشكلات حول الأصالة -إذا تلقت الذكاء الاصطناعي إدخالًا مشكوكًا فيه- فقد يكون الناتج المقابل خاطئًا. يتمثل الحل في تطوير وتنفيذ آليات لضمان صحة المقالات التي يتم مشاركتها عبر الإنترنت. يمكن أن يشمل ذلك البيانات الوصفية و trackbacks للحقائق والمصادر.


وهناك أيضا مجموعة تحديات قانونية وأخلاقية تتمثل في التالى:


إعادة تعريف حقوق الطبع والنشر والاستخدام العادل: 

كثيراً ما كانت التكنولوجيات الحديثة تتحدى قوانين حقوق النشر في الصناعات الإبداعية. يحتمل أن يمثل التعلم الآلي تعارضًا جديدًا، لأنه ينطوي على تعلم الذكاء الاصطناعي من الأعمال "التعبيرية" التي أنشأها الإنسان - وهي مجموعة بيانات من المقالات أو اللوحات أو الموسيقى، على سبيل المثال، تميل إلى امتلاك أصحاب الحقوق - وتوليد ناتجها الخاص. من المحتمل أن يختبر هذا التفسير القانوني لـ "الاستخدام العادل"، حيث يتم استخدام المواد المحمية بحقوق الطبع والنشر لإنتاج محتوى جديد و "تحويلي" دون إذن أو دفع الإتاوات.


ضمان مساءلة الشركات: 

نظرًا لأنه لا يمكن مساءلة الذكاء الاصطناعى من الناحية القانونية، يجب تضمين المساءلة البشرية في جميع مراحل سلسلة قيمة المحتوى. يتمتع موزعو المحتوى مثل: Facebook وGoogle وTwitter، لابسلطة لا مثيل لها لإعلام الرأي العام وتشكيله، لأن خوارزميات الذكاء الاصطناعى تستخدم لتحديد القيمة النسبية للمحتوى الذي يظهر أمام المستخدمين. وبالتالي، تتحمل المنصات بصفتها مالكًا لوسائل الإنتاج مسؤولية منع نشر وترويج المعلومات الضارة بواسطة الخوارزميات التي طورتها. في حين أن هناك حاجة إلى تدابير أفضل لضمان إيقاف المحتوى المضلل المتعمد من جذره ، يمكن للمرء أن يتساءل عما إذا كانت هناك أخبار خاطئة ومعلومات مضللة قائمة لأن الحوافز التجارية لزيادة المشاركة أكبر من أن تقاوم.


تفاقم القوة غير المتكافئة: 

تقوم أكبر غرف الأخبار ببناء الذكاء الاصطناعي الخاص بها، ولكن قد لا تملك المتاجر الأصغر قدرة مالية أو خبرة تقنية، وستضطر إلى ترخيص محتوى خاص. الخوف هو أن اختيار "الشراء" بدلاً من "البناء" يغذي "سباق التسلح لصالح الذكاء الاصطناعى" الذي يعزز القوة بين حفنة من الشركات. قد تظهر ديناميكية مماثلة في أي مكان آخر في الاقتصاد الإبداعي حيث أصبحت الذكاء الاصطناعي أكثر انتشارًا - بالطريقة نفسها التي أصبح الاعتماد عليها أكثر اعتمادًا على عمالقة التكنولوجيا في نمو الإيرادات ، فقد ترى الصناعات الإبداعية الأخرى أن البنية التحتية التشغيلية الخاصة بها قد صممت بواسطة Silicon Valley.


على الرغم من تلك التحديات، فإن المنتدى الاقتصادي العالمي أبدى تفاؤله بشأن تطوير هذه التكنولوجيا. ومع ذلك، سيكون هناك ما يبرر التشاؤم عند الحديث عن الثقة في تطبيقات الذكاء الاصطناعى في صناعة الصحافة.


وتعد شركة جوجل من الشركات الرائدة التي استخدمت الذكاء الإصطناعي وتعلم الآلة في منتجاتها، فضلا عن أنها من أكثر الشركات تقدماً في العالم في مجالات وعلوم الذكاء الاصطناعي، وقد نشرت الشركة عام 2018 مجموعة من المبادئ الأساسية (غير التقنية) المفيدة التي تستند عليها الشركة في تطوير أنظمة الذكاء الاصطناعي وتشكل ميثاقا أخلاقيا يمكن الإفادة منه وهى وفقا لعبد الله حمدى:


1-  النفع العام فتصميم الذكاء الاصطناعي وخوارزمياته يجب أن يكون الهدف منه والاحتمالات الممكنة للاستخدام تصب بشكل عام في مصلحة الجميع، وأن الفائدة لأغلب الناس تتجاوز المضار. هذه الفكرة تتماشى مع التوجه الاجتماعي الأوروبي والشرقي وتتعارض مع الجانب الفردي (زيادة المصلحة الفردية) المهمين للرأسمالية الأمريكية. وفي هذا دلالة على توجه عالمي لشركة جوجل يتقبل من الجميع. كما أنه بهذا المبدأ استبعدت الشركة فكرة تطوير أسلحة باستخدام الذكاء الاصطناعي.


2-  تجنب الانحياز غير العادل، وهذه مشكلة تواجهها معظم خوارزميات تعلم الآلة، حيث تعتمد بشكل كبير على البيانات. وفي حال كون البيانات منحازة لفئة معينة من الناس أو لتوجه معين أو بعض الأحيان لعرق معين فإنه ينبغي بذل مجهود لتجنب التداعيات غير العادلة على الفئة المتضررة. 

مثال: بعض أنظمة التعرف على الوجه قد تفشل في التعرف على ذوي البشرة السوداء لعدم وجود تمثيل لهم في البيانات المستخدمة في تدريب خوارزميات الذكاء الاصطناعي.  وتؤكد شركة جوجل على أهمية التنوع في مصادر البيانات من قبل مجمعي البيانات والتنوع العرقي لتجنب الانحياز الظالم، والذي قد يظلم عرقيات معينة أو يضر فئة معينة من الناس في قرارات مصيرية مثل الوظيفة أو تشخيص مرض معين. بعض أنظمة الذكاء الاصطناعي تفشل وتنحاز في نتائجها لانحياز البيانات المستخدمة في تدريب هذه الخوارزميات. ذلك قد يضر ويظلم بعض العرقيات.


3-  السلامة أولاً، أنظمة الذكاء الاصطناعي الحديثة بالتعلم العميق (deep learning) تعمل بشكل فعال، لكن لا يوجد تفسير كامل لسبب عملها، وقد تفشل بالقليل من التلاعب المتعمد (adversarial attacks). وبما أن هذه الأنظمة يتم استخدامها بشكل كبير في أنظمة مختلفة، ويتم استخدامها بشكل أكبر في المستقبل، فلذلك هناك خطر عالي في الأنظمة التي تستخدم تلك الأنظمة وتعتمد عليها حياة البشر مثل تشخيص الأمراض. لذلك تشجع جوجل البناء الآمن  القوي لخوارزميات الذكاء الإصطناعي لتجنب -أو على الأقل تقليل- الخطر على السلامة.


4- تحمل المسؤولية، تظهر هذه المشكلة في الأنظمة التي تمس حياة البشر بشكل مباشر، مثل القيادة الذاتية للسيارات. حيث أنه قد تسبب خوارزميات الذكاء الاصطناعي حوادث مميتة في المستقبل (رغم عملها الفعال في معظم الحالات). من سيتحمل المسؤولية حينها؟ تؤكد جوجل على دور العلماء في تحمل مسؤولية ما يصنعونه وما سيترتب عليه من تأثير مباشر (ضار أو نافع) على حياة الملايين من الأشخاص.


في 2018 حصل حادث مميت لسيارة تسلا بوضع ذاتية القيادة، وقد تتكرر مثل هذه الحوادث مستقبلاً. من يتحمل مسؤولية الحادث؟ شركة تسلا؟ أم شركة تقنية القيادة الذاتية؟ أم شركة الأجهزة؟ أم مهندس التصميم؟


5-  الخصوصية كجزء أساس بعد فضيحة فيسبوك واستغلالها بيانات المستخدمين بشكل غير قانوني، طفت على السطح قضية الخصوصية وأنه من الضروري بناء أنظمة تحمي خصوصية المستخدمين، وظهر قانون حماية خصوصية البيانات في أوروبا (GDPR). تظهر مشكلة الخصوصية جلياً في خوارزميات الذكاء الاصطناعي التي تحتاج بيانات كبيرة. وتلجأ بعض الشركات لبيانات المستخدمين (أو حتى بيانات مفتوحة لكن غير مصرحة) لتدريب الخوارزميات واستخدامها لأغراض تجارية دون الرجوع لأصحاب هذه البيانات .. وذلك يعد خرقاً للقانون و لخصوصية الناس.


في عام 2018 حدثت فضيحة تسريب بيانات شركة فيسبوك، وأدت إلى انتشار الوعي بأهمية الخصوصية، وظهور قانون حماية خصوصية بيانات المستهلك (GDPR) في أوروبا.


6-  الالتزام بالمعايير العلمية، الطريقة العلمية التي تعتمد على تحري الحقائق والتعاون البحثي ونشر المعلومات تعد أهم قواعد شركة جوجل في مجال الذكاء الاصطناعي. حيث لا ينبغي للمطورين والعلماء الخروج عن المهنية أو احتكار جانب علمي معين، مما لا يتماشى مع المعايير العلمية العالية المتبعة في المجال الأكاديمي. يشمل ذلك تحري المعلومة قبل نشرها وعدم إدعاء سبق علمي أو التهويل الإعلامي، لبحث معين دون التمحيص المتبع في أفضل المنشورات العلمية.


7-  نشر العلم للجميع، تضع شركة جوجل على عاتقها نشر كافة الأنظمة وتوفيرها للجميع في حال التزامهم بالقواعد الست الماضية. ذلك يعني فتح البيانات ونشر البرمجيات وفتحها للجميع ليستفيدوا منها ويطوروا عليها. يعد هذا توجه عالمي، حيث ينشر الجميع على موقع GitHub، لكن ما تزال كثير من الشركات تحتفظ بأنظمتها البرمجية لنفسها أو تسجل براءة اختراع عليها. التزام جوجل بهذه القاعدة صعب لأنه يعني فقدان الامتياز الناتج عن اكتشافات جديدة قد تفيد الشركة مادياً في مواجهة المنافسين مثل فيسبوك ومايكروسوفت وأمازون.


إشكاليات تستحق التأمل ومحاذير تستدعى الانتباه ومعايير يمكن الإفادة منها عندما نبدأ في توظيف تطبيقات الذكاء الاصطناعى بعامة وفى صناعة الصحافة ذات الطابع الفكرى والاجتماعى المميز.