القائمة الرئيسية

الصفحات

هل خدعونا بالذكاء الاصطناعي؟ ملخص كتاب زيت الثعبان AI Snake Oil

يسعى صناع القرار والحكومات والشركات جاهدين، لاستبدال عملية صنع القرار البشرية بتحليلات الذكاء الاصطناعي التنبؤية. لكن ثمة مشكلة واحدة: أدوات الذكاء الاصطناعي لا تعمل دائمًا كما هو مُعلن. على سبيل المثال، بدأ مقدِمو خدمات الرعاية الصحية في الولايات المتحدة، باللجوء إلى الذكاء الاصطناعي التنبؤي لتقدير المدة التي سيقضيها المرضى في المستشفى. مع ذلك، فإن هذه التقديرات ليست دقيقة دائمًا، وقد تُضعف جودة الرعاية التي يتلقاها المرضى. في إحدى الحالات المُقلقة، توقعت إحدى أدوات الذكاء الاصطناعي أن رجلاً يبلغ من العمر 85 عامًا سيحتاج إلى قضاء 17 يومًا فقط في المستشفى. وبعد أن أخذت شركة التأمين الصحي للمريض هذا التنبؤ على محمل الجد، أوقفت تمويل العلاج بعد هذه المدة الطويلة، على الرغم من أن المريض لا يزال غير قادر على المشي دون مساعدة، ويعاني من ألم شديد.

 



هل أنت مستعد لتجاوز الضجيج واتخاذ قرارات أكثر ذكاءً بشأن الذكاء الاصطناعي؟ تابع القراءة للاطلاع على رؤى الخبراء من "زيت الأفعى للذكاء الاصطناعي" - وتعلم كيفية التمييز بين الابتكار الحقيقي والوعود المبالغ فيها.

يقول أستاذ علوم الحاسوب بجامعة برينستون، أرفيند نارايانان، وطالب الدكتوراه ساياش كابور: "حان الوقت للتمييز بين القدرات الحقيقية للذكاء الاصطناعي والوعود المبالغ فيها لشركات التكنولوجيا الكبرى". فكما روج الباعة في السابق لزيت الثعبان على أنه "علاج سحري"، بينما في الواقع، لم تكن له أي فوائد طبية، يُبالغ الناس اليوم في تقدير إمكانات الذكاء الاصطناعي. على سبيل المثال، لا تستطيع أدوات الذكاء الاصطناعي منح البشرية رؤية كاملة للأحداث المستقبلية، لكنها قد تؤدي إلى اتخاذ قرارات خاطئة. يدعوك نارايانان وكابور إلى النضال من أجل مستقبل الذكاء الاصطناعي الذي تريده، بدلاً من تقبّل المستقبل الذي تحاول شركات التكنولوجيا بيعه لك.

 

"يتم استخدام الذكاء الاصطناعي التنبئي حاليًا من قبل الشركات والحكومات، ولكن هذا لا يعني أنه يعمل."

تكثر الوعود الكاذبة حول قدرة الذكاء الاصطناعي على تقديم تنبؤات دقيقة. على سبيل المثال، نشرت كلٌّ من مجلتي "ساينتفك أمريكان" و"أكسيوس" تقارير تُروّج لبحثٍ نُشر عام ٢٠٢٣ تضمن ادعاءً زائفًا بأن الذكاء الاصطناعي قادر على التنبؤ بالأغاني الرائجة المستقبلية بدقةٍ تقترب من ١٠٠٪. إلا أن نتائج الدراسة كانت زائفة بسبب تسريب البيانات: هذا يعني أن الباحثين اختبروا الأداة باستخدام البيانات نفسها أو بياناتٍ مشابهةٍ مُستخدمة في تدريبها، مما عزّز دقة نتائجهم بشكلٍ كبير. وقد خلصت المراجعات المنهجية لأبحاث التعلم الآلي إلى أن غالبية هذه الأبحاث تشوبها عيوبٌ مماثلة. ومع ذلك، لا يزال الباحثون يُروّجون للتعلم الآلي كحلٍّ سحريٍّ للمواقف عالية المخاطر، من التنبؤ بالأمراض إلى تقييم احتمالية الحرب.

 

غالبًا ما تفشل الذكاء الاصطناعي التنبؤي لخمسة أسباب رئيسية، مما يؤدي إلى عواقب وخيمة في العالم الحقيقي؛ وذلك للأسباب الخمسة التالية:

1.قد يؤدي التنبؤ الجيد إلى استنتاجات غير مدروسة جيدًا - فقد يكتشف الذكاء الاصطناعي أنماطًا دقيقة في البيانات، ولكنها قد تؤدي، إن لم تُدقق أكثر، إلى اتخاذ قرارات خاطئة. على سبيل المثال، وجدت إحدى الدراسات أن مرضى الربو عانوا من مضاعفات أقل نتيجة الالتهاب الرئوي، مما يشير للوهلة الأولى إلى أن هؤلاء المرضى يستحقون مستوى رعاية أقل. ومع ذلك، فإن مرضى الربو في الواقع أكثر عرضة للإصابة بالالتهاب الرئوي. فهم يعانون من مضاعفات أقل فقط بفضل مستوى الرعاية الأعلى الذي يتلقونه.

2.قد يحاول البعض التلاعب بأنظمة الذكاء الاصطناعي - قد يحاول المتقدمون للوظائف ملء طلباتهم بكلمات مفتاحية عند التقديم عبر أنظمة التوظيف الآلية. وبالمثل، قد يحاول المرشحون وضع أرفف كتب في نهاية مقاطع الفيديو في طلباتهم، إذ يدرك الناس أن نماذج الذكاء الاصطناعي غالبًا ما تعتمد على عوامل عشوائية، مثل وجود كتب في خلفية الفيديو، عند فرز المرشحين.

3.يحدث الاعتماد المفرط على الذكاء الاصطناعي دون رقابة - يميل الناس إلى الثقة بالذكاء الاصطناعي، حتى عندما يكون خاطئًا. على سبيل المثال، في عام ٢٠١٣، استبدلت هولندا عملية اتخاذ القرار البشري بنظام ذكاء اصطناعي مصمم للكشف عن الاحتيال في الرعاية الاجتماعية. أخطأت خوارزميتهم في تحديد ٣٠ ألف والد، مستخدمةً الجنسية كمؤشر للاحتيال، مستهدفةً بشكل غير متناسب الأفراد من الجنسيات التركية أو المغربية أو الأوروبية الشرقية.

4.قد لا تكون بيانات التدريب مُمثلةً بما يكفي - فقرارات الذكاء الاصطناعي تعتمد على بيانات التدريب. وبالتالي، تعتمد دقة أداة الذكاء الاصطناعي المُستخدمة على مدى تمثيل بيانات التدريب الخاصة بها للسكان المستهدفين. على سبيل المثال، صممت مقاطعة أليغيني في بنسلفانيا نظام ذكاء اصطناعي للتنبؤ بمخاطر إساءة معاملة الأطفال، باستخدام بيانات الرعاية الاجتماعية كبيانات تدريب. ونظرًا لعدم تمثيل الأسر الأكثر ثراءً في بيانات التدريب، استهدفت المقاطعة بشكل غير متناسب الأسر ذات الدخل المنخفض للتحقيق وإزالة الأطفال.

5.قد يُفاقم الذكاء الاصطناعي التنبؤي أوجه عدم المساواة - غالبًا ما يستخدم الناس الذكاء الاصطناعي التنبؤي بطرق تُلحق ضررًا غير متناسب بالمجتمعات المهمشة. بعد تطبيق قانون الرعاية الصحية الميسرة لعام ٢٠١٠، ضغطت شركات التأمين على المستشفيات لخفض الأسعار، مما دفع مُقدمي الخدمات إلى استخدام الذكاء الاصطناعي لتحديد المرضى الأكثر عرضة للخطر وتخصيص الرعاية الوقائية لهم. صنّف برنامج "إمباكت برو" من "أوبتوم" المرضى البيض على أنهم أكثر عرضة للخطر من المرضى السود، وذلك لأنه ساوى بين ارتفاع الإنفاق على الرعاية الصحية والاحتياجات الصحية، مما أدى إلى تدني مستوى الرعاية المقدمة للمرضى السود.

لقد حان الوقت لقبول حدود الذكاء الاصطناعي التنبئي مع تحسين دقة التنبؤ عندما يكون ذلك ممكنا.

مع تزايد توافر البيانات، بدأ علماء الاجتماع بالتوجه إلى التعلم الآلي لأغراض التنبؤ. على سبيل المثال، في عام ٢٠١٥، صمم علماء اجتماع من جامعة برينستون دراسة واسعة النطاق على أمل التنبؤ بنتائج حياة الأطفال في "تحدي الأسر الهشة". استخدم الباحثون بيانات جُمعت على مدى ١٥ عامًا لـ ٤٠٠٠ طفل في جميع أنحاء الولايات المتحدة، في محاولة للتنبؤ بالنتائج، مثل المعدل التراكمي، بناءً على عوامل مثل المستوى التعليمي لأمهاتهم والأداء الأكاديمي السابق. للأسف، كانت نتائج نموذجهم أفضل بقليل من التخمين العشوائي. فعلى عكس التنبؤ بحركة الأجرام السماوية، الذي يستطيع العلماء القيام به بدقة مذهلة، لا توجد قوانين محددة بوضوح تحكم السلوك البشري ونتائج الحياة، والتي تتشكل من خلال عوامل معقدة وغالبًا ما تكون غير متوقعة.

"يبدأ التغيير بتحدي نشر أدوات الذكاء الاصطناعي الضارة في مكان عملك، وحيّك، ومجتمعك."

على الرغم من عدم إثبات فعالية الذكاء الاصطناعي التنبؤي في العلوم الاجتماعية بشكل واضح، تواصل الشركات بيع نماذج الذكاء الاصطناعي التي تُرشد الناس في اتخاذ قرارات تؤثر على حياتهم. في نظام العدالة الجنائية في الولايات المتحدة، استخدمت بعض الولايات نموذج الذكاء الاصطناعي التنبؤي COMPAS، وهو أداة لتقييم المخاطر، لتحديد ما إذا كان المجرم سيعود إلى ارتكاب الجريمة. وقد وجدت الصحفية الاستقصائية جوليا أنجوين وفريقها في بروبابليكا أن COMPAS أظهر تحيزًا عنصريًا كبيرًا، حيث صنّف السود بشكل غير متناسب على أنهم أكثر عرضة لارتكاب جرائم مستقبلية من المجرمين البيض. ومع تزايد المخاطر على حياة البشر، من الضروري أن يبدأ الناس باحترام حدود التنبؤ وبذل الجهود لتحسينه قدر الإمكان من خلال تحسين جودة وكمية بيانات التدريب.

إن الذكاء الاصطناعي التوليدي ينطوي على مخاطر جدية، ويتطلب الرقابة وممارسات العمل العادلة والتثقيف العام.

هناك بعض الأمور التي يجيدها الذكاء الاصطناعي، مثل توليد الصور وتصنيفها. على سبيل المثال، عندما تكون في نزهة، يمكنك التقاط صورة لشجرة واستخدام أداة ذكاء اصطناعي تستفيد من الشبكات العصبية العميقة لمعرفة نوعها - وهو أمر مفيد للغاية. تُظهر الأبحاث المبكرة أن العاملين في مجال المعرفة يمكنهم أيضًا الاستفادة من الذكاء الاصطناعي التوليدي، واستخدامه في مهام مثل المساعدة في الكتابة والبرمجة. إلا أن الذكاء الاصطناعي التوليدي يأتي مع مخاطر كبيرة. على سبيل المثال، يستخدم الناس الذكاء الاصطناعي التوليدي بشكل متكرر لإنشاء صور لأشخاص على الإنترنت أو التلاعب بها. غالبية هذه "التزييفات العميقة" ذات طبيعة إباحية، حيث تم إنشاؤها دون موافقة الشخص المعني. ومن المستحسن أيضًا إطلاق مبادرات تثقيفية عامة تساعد الناس على التمييز بين التزييفات العميقة التي يمكن أن تنشر معلومات مضللة، ومصادر الأخبار الموثوقة.

"إن الضرر الأكثر خطورة الناجم عن الذكاء الاصطناعي التوليدي، في رأينا، هو استغلال العمالة الذي يشكل جوهر الطريقة التي يتم بها بناؤه ونشره اليوم."

تتعاقد الشركات مع مُعلّقي بيانات بشريين من الدول الفقيرة لتصنيف المحتوى السام في نماذج الذكاء الاصطناعي التوليدية. عادةً ما يكون هؤلاء العمال مُرهقين بالعمل، ويتقاضون أجورًا زهيدة، ويتعرضون لصدمات نفسية بالغة بسبب الطبيعة السامة للمحتوى الذي يتعرضون له. من الصعب تقدير عدد مُعلّقي البيانات حول العالم، إذ تعمل الشركات دون شفافية، مما يدفع العمال إلى توقيع اتفاقيات سرية. لقد حان الوقت لحركة عمالية جديدة لتحسين ظروف العاملين في مجال شرح بيانات الذكاء الاصطناعي. نشرت باحثة الذكاء الاصطناعي أدريان ويليامز وزملاؤها ورقة بحثية تدعو إلى تشكيل نقابات، وتشكيل تحالفات عابرة للحدود الوطنية، وتعزيز التضامن بين عمال التكنولوجيا الأثرياء وزملائهم ذوي الأجور المنخفضة.

تواجه الذكاء الاصطناعي المستخدم في تعديل المحتوى صعوبات في التعامل مع اللغة والسياق والمعلومات المضللة.

بينما تُوظّف شركات التواصل الاجتماعي مُشرفين على المحتوى مُلِمّين بالسياقات المحلية في الدول الغنية، مثل الولايات المتحدة والدول الأوروبية، فإنها لا تفعل الشيء نفسه في العديد من دول الجنوب العالمي. ففي هذه المناطق الأقل ثراءً، غالبًا ما تستخدم شركات التواصل الاجتماعي الذكاء الاصطناعي لإدارة المحتوى. ومع ذلك، غالبًا ما تفشل أدوات الذكاء الاصطناعي في حماية المستخدمين من التعرض للمنشورات المُضللة أو المُحرضة على الكراهية، أو تُصنّف المحتوى بشكل خاطئ على أنه مُشكل. وكجزء من عملية الإدارة، تستخدم فيسبوك ومنصات التواصل الاجتماعي الأخرى الذكاء الاصطناعي أيضًا لترجمة المحتوى غير الإنجليزي إلى الإنجليزية، إلا أن هذه الترجمات غالبًا ما تفتقر إلى الدقة نظرًا لافتقارها إلى فهم السياقات المحلية.

"عندما يتم تصوير الذكاء الاصطناعي لإدارة المحتوى على أنه حل للمعضلات الأخلاقية والسياسية لوسائل التواصل الاجتماعي بدلاً من كونه مجرد وسيلة للشركات لتوفير المال، فإنه يصبح شكلاً من أشكال الاحتيال."

هناك نوعان رئيسيان من تعديل المحتوى باستخدام الذكاء الاصطناعي: "مطابقة البصمات"، حيث يكتشف الذكاء الاصطناعي المحتوى المحظور المُحدد سابقًا، والتعلم الآلي، حيث يحدد أنواعًا جديدة من المحتوى الضار عبر اكتشاف الأنماط. تقتصر مطابقة البصمات على إمكانية الإبلاغ عن المحتوى المُبلغ عنه سابقًا فقط. يمكن للتعلم الآلي أن يتخطى ذلك، فيُبلغ عن المحتوى الجديد بناءً على بيانات التدريب، ولكن هذا أيضًا قد يُمثل مشكلة، إذ قد يؤدي إلى قمع الأفكار المعارضة - تلك التي تُخالف بيانات التدريب أو تُخالف الوضع الراهن. على سبيل المثال، قد يُصنف هذا الصنف المعارضة السياسية أو اكتشافًا علميًا جديدًا على أنه معلومات مُضللة.

علاوة على ذلك، لا تستطيع نماذج التعلم الآلي تحديد صحة أو خطأ بيان ما؛ فهي تحدد فقط كيفية تصنيف البيانات السابقة، مما يجعلها غير فعالة في تقييم دقة المواضيع المرتبطة بالتضليل، مثل نظريات المؤامرة حول لقاح كوفيد-19. انتشار المحتوى الضار على منصات التواصل الاجتماعي ليس أمرًا حتميًا، بل هو أمرٌ مُصمم: تستخدم المنصات خوارزميات تُكافئ التفاعل والاهتمام، بدلًا من تضخيم المحتوى القيّم أو المفيد للناس.

 

التخفيف من مخاطر الذكاء الاصطناعي من خلال تعزيز المؤسسات الديمقراطية.

في حين يُعرب الكثيرون عن مخاوف وجودية بشأن الذكاء الاصطناعي - قلقهم، على سبيل المثال، من أن يتصرف ذكاء اصطناعي فائق الذكاء بطريقة ما بشكل فوضوي - فإن هذه المخاوف مُبالغ فيها. كما أنها تمنح الذكاء الاصطناعي سلطة مفرطة، ونتيجة لذلك، تدفع الناس إلى قبول الطرق الإشكالية التي يستخدمها الأفراد والشركات والحكومات لنشر أنظمة الذكاء الاصطناعي، بدلاً من معارضتها. من غير المرجح أن تُصبح أنظمة الذكاء الاصطناعي الفوضوية تهديدًا وجوديًا حقيقيًا، لأنه لا يوجد سبب للاعتقاد بأن الأشخاص الذين يعملون بمساعدة أنظمة ذكاء اصطناعي أخرى سيكونون أقل قوة من الأنظمة التي تتصرف بشكل فوضوي. سيأتي التهديد الوجودي الحقيقي من الجهات الفاعلة البشرية وكيفية اختيارها لاستخدام أنظمة الذكاء الاصطناعي. على سبيل المثال، قد تستخدم الجهات الفاعلة السيئة الذكاء الاصطناعي للسيطرة على محطات الطاقة النووية.

"من خلال تصوير التكنولوجيا على أنها قوية للغاية، يبالغ المنتقدون في تقدير قدراتها ويقللون من أهمية حدودها، مما يصب في مصلحة الشركات التي تفضل التدقيق الأقل."

إن منع وقوع الذكاء الاصطناعي في أيدي جهات فاعلة سيئة، أو منع تصميم نماذج ذكاء اصطناعي قد تساعد أصحاب النوايا الخبيثة، ليست أهدافًا واقعية. بل يجب على البشرية أن تحمي نفسها من تهديدات محددة. على سبيل المثال، سيساعد تعزيز المؤسسات الديمقراطية في الحد من الأضرار الناجمة عن التضليل الإعلامي والتزييف العميق الناتج عن الذكاء الاصطناعي. قد تبدو هذه مهمة "شاقة"، إلا أنها حيوية، إذ يستحيل "إعادة الذكاء الاصطناعي إلى وضعه الطبيعي".

 

تنتشر الأساطير حول إمكانات الذكاء الاصطناعي بسبب المبالغة في تقدير أداء المطلعين على الصناعة.

في عام ٢٠١٦، أكد عالم الحاسوب جيفري هينتون: "يجب على الناس التوقف عن تدريب أخصائيي الأشعة الآن. من البديهي تمامًا أنه في غضون خمس سنوات، سيتفوق التعلم العميق على أخصائيي الأشعة". لم تتحقق هذه التوقعات، وهناك نقص عالمي في أخصائيي الأشعة اليوم. كما دفعت شركة OpenAI الكثيرين إلى افتراض أن الذكاء الاصطناعي سيحل محل المحامين بإعلانها أن اختبار GPT-4 الخاص بهم قد حقق نسبة ٩٠ في المائة في امتحان نقابة المحامين. ومع ذلك، يحتاج المحامون إلى أكثر من مجرد معرفة بالموضوع - بل يحتاجون إلى مهارات عملية، وهو ما يفتقر إليه الذكاء الاصطناعي. هناك اتجاه عام في صناعة الذكاء الاصطناعي نحو تجاهل الخبرة في هذا المجال التي يتمتع بها متخصصو هذا المجال.

"المشكلة مع الضجيج حول الذكاء الاصطناعي تنبع من عدم التطابق بين الادعاءات والواقع."

من أسباب انتشار الخرافات حول إمكانات الذكاء الاصطناعي أن الشركات قد تتلاعب بمقاييس الدقة لخداع الجمهور وإيهامهم بأن نماذج الذكاء الاصطناعي أكثر دقة وكفاءة مما هي عليه في الواقع. على سبيل المثال، عند قياس الدقة في تصنيف الصور، تستخدم الشركات مقياسًا يُسمى دقة "أعلى عدد من التخمينات": يشير "N" إلى عدد التخمينات التي تُخصصها لنموذج الذكاء الاصطناعي لتحديد صورة بدقة. إذا عرّفت N بثلاثة، فإن النموذج يحتاج فقط إلى ثلاث تخمينات صحيحة. مع ذلك، يمكن للشركات رفع N إلى 10 إذا أرادت الحصول على نتائج أفضل، لأن معظم الناس لن يفكروا في التحقق مما إذا كانت الشركات تستخدم قيمة عالية من N أو قيمة منخفضة من N.

 

إن التعامل مع فشل الذكاء الاصطناعي في تحقيق ما وعد به يتطلب تحولات في طريقة التفكير.

حاولت بعض المؤسسات، كالجامعات، استخدام الذكاء الاصطناعي لتحسين عملياتها - باستخدام أداة تفحص حسابات وسائل التواصل الاجتماعي لتحديد الطلاب الذين يحتاجون إلى دعم الصحة النفسية، على سبيل المثال. ولكن في كثير من الأحيان، تُبرز هذه التجارب محدودية قدرة الذكاء الاصطناعي على معالجة المشكلات المُكلّف بإصلاحها. يُنصح المؤسسات بتجنب التحسين من أجل البساطة و"مكاسب الكفاءة المتواضعة". يجب أن يكون البشر قادرين على فهم أنظمة الذكاء الاصطناعي، التي تعمل حاليًا كصناديق سوداء. قد ترغب المؤسسات أيضًا في النظر في "اعتماد العشوائية"، باستخدام نماذج "اليانصيب الجزئي" لتوجيه عملية صنع القرار. على سبيل المثال، إذا كانت المدرسة تُحدد من يحصل على منحة دراسية، فيجب عليها إنشاء مجموعة من جميع الطلاب المحتملين الذين يستوفون الشروط ثم اختيار الفائزين عشوائيًا.

"نحن لسنا على ما يرام مع ترك مستقبل الذكاء الاصطناعي للأشخاص المسؤولين حاليًا."

غالبًا ما تزعم شركات التكنولوجيا أن التنظيم الذاتي هو الخيار الوحيد القابل للتطبيق لأن الحكومات تتحرك ببطء أكبر بكثير من وتيرة الابتكار التكنولوجي وتفتقر إلى فهم عميق لصناعتها. لكن موظفي الحكومة ينجحون في تنظيم الهندسة المدنية بقواعد البناء، على الرغم من افتقارهم إلى الخلفيات الهندسية. بدلاً من محاربة التنظيم، من الأفضل تعزيز الهيئات التنظيمية ومنحها المزيد من الموارد والتمويل لمنع سيطرة الشركات التي من المفترض أن تشرف عليها أو تأثيرها المفرط على المنظمين. في حين أنه من المهم تجنب التنظيم المفرط، لأنه يمكن أن يخنق الابتكار، فإن ترك مستقبل الذكاء الاصطناعي لشركات التكنولوجيا التي تحركها الربح ليس في المصلحة العامة. سواء من خلال التعبير الفني أو العمل المجتمعي، فإن لكل شخص دور يلعبه في تشكيل مستقبل الذكاء الاصطناعي.

تعليقات