تفاصيل الابحاث والإختراعات

لماذا لا يستطيع الذكاء الصناعي حل كل شيء؟
2020-01-23

لماذا لا يستطيع الذكاء الصناعي حل كل شيء؟

تحتاج أنظمة الذكاء الاصطناعي إلى الكثير من البيانات لتبدأ عملها، ولكن القطاع العام عادةً لا يملك البنية التحتية المناسبة للبيانات من أجل دعم التعلم التلقائي المتقدم. تبقى معظم البيانات مخزنةً في الأرشيفات غير المتصلة بالإنترنت. المصادر الرقمية القليلة للبيانات تميل إلى أن يتم دفنها في البيروقراطية. في كثير من الأحيان، تُنشر البيانات عبر أقسام حكومية مختلفة وكل منها يتطلب أذونات خاصة ليتم الوصول إليها. علاوةً على كل ذلك، فإن القطاع العام يفتقر عادةً للموهبة البشرية مع الإمكانيات التقنية الصحيحة لجني فوائد الذكاء الآلي بشكل كامل. لأجل هذه الأسباب، جذبت الإثارة حول الذكاء الاصطناعي العديد من النقاد. البروفيسور في علوم الحاسوب في جامعة بيركلي “ستيوارت راسل”، لطالما دعا لنظرة أكثر واقعيةً تركز على التطبيقات اليومية البسيطة للذكاء الاصطناعي بدلًا من السيطرة الافتراضية من قبل الروبوتات فائقة الذكاء. وبالمثل، بروفيسور علم الروبوتات في معهد ماساتشوستس للتكنولوجيا “رودني بروكس”، كتب ما يلي: «تستغرق كل الابتكارات تقريبًا في مجال الروبوتات والذكاء الاصطناعي وقتًا طويلًا حتى يتم نشرها على نطاق واسع أكثر مما يتخيله الأشخاص الذين يعلمون في المجال أو خارجه». إحدى الصعوبات العديدة في نشر أنظمة الذكاء الاصطناعي هي أنه معرّض جدًا لهجمات معادية. وهذا يعني أن الذكاء الاصطناعي الخبيث يمكن أن يستهدف ذكاءً اصطناعيًا آخر لإجباره على القيام بتوقعات خاطئة أو التصرف بطريقة معينة. وقد حذر العديد من الباحثين ضد إطلاق الذكاء الاصطناعي دون معايير أمنية مناسبة وآليات دفاعية. ومع ذلك، لا يزال أمن الذكاء الاصطناعي موضوعًا غالبًا ما يتم إهماله. إذا أردنا جني الفوائد وتقليل الأضرار المحتملة للذكاء الاصطناعي، فإنه يجب علينا أن نبدأ بالتفكير حول كيفية تطبيق التعلم التلقائي بطريقة مجدية على مناطق محددة من الحكومة، قطاع الأعمال والمجتمع. وهذا يعني أننا نحتاج إلى إجراء مناقشة حول أخلاقيات الذكاء الاصطناعي والارتياب الموجود لدى الكثير من الأشخاص تجاه التعلم التلقائي. والأهم من ذلك، هو أنه من الضروري أن نكون مدركين لحدوده، لا يزال البشر بحاجة لأخذ زمام المبادرة. بدلًا من رسم صورة غير واقعية لقوة الذكاء الاصطناعي، من المهم التراجع للوراء وفصل الإمكانيات التقنية الفعلية له عن السحر. لوقت طويل، اعتقد موقع التواصل الاجتماعي “الفيسبوك” أن المشكلات، كمشكلة انتشار معلومات مضللة وخطابات كراهية، من الممكن تحديدها خوارزميًا وإيقافها. ولكن في ظل الضغوط الأخيرة من قبل المشرعين، سرعان ما تعهدت الشركة باستبدال خوارزمياتها بجيش يضم 10,000 مراجع بشري. وقد أدركت مهنة الطب أيضًا أن الذكاء الاصطناعي لا يمكن اعتباره حلًا لجميع المشكلات. كان برنامج علم الأورام “IBM Watson” عبارةً عن جزء من الذكاء الاصطناعي، والذي كان يهدف لمساعدة الأطباء على معالجة السرطان. على الرغم من أنه قد تم تطويره لتقديم أفضل التوصيات، فإن الخبراء البشريين وجدوا صعوبةً بالثقة في الآلة. ونتيجةً لذلك تم التخلي عن هذا البرنامج في معظم المستشفيات حيث تم اختباره. ظهرت مشاكل مماثلة في المجال القانوني عندما تم استخدام الخوارزميات في المحاكم في الولايات المتحدة الأمريكية من أجل محاكمة المجرمين. قامت خوارزمية بحساب نتائج تقدير المخاطر ونصحت القضاة بشأن الحكم. وقد وُجد أن النظام قائم من أجل مضاعفة التمييز العنصري الهيكلي لذا تم التخلي عنه فيما بعد. هذه الأمثلة تبين أن الذكاء الاصطناعي لا يملك حلًا لكل شيء. استخدام الذكاء الاصطناعي ببساطة من أجل الذكاء الاصطناعي بحد ذاته قد لا يكون مُنتجًا ومفيدًا بشكل دائم. ليس أفضل حل لكل مشكلة هو من خلال تطبيق الذكاء الآلي عليها. هذا هو الدرس الحاسم لكل شخص يهدف إلى تعزيز الاستثمارات في برامج الذكاء الاصطناعي الوطنية: جميع الحلول تأتي مع كلفة وليس كل شيء من الممكن أن يكون آليًا يجب عليه أن يكون.