المدونة
هل تقدر تثق في الذكاء الاصطناعي؟ (تنبيه: يمكن، نوعاً ما، تقريباً)

هل يمكنك الوثوق بالذكاء الاصطناعي؟ الإجابة الصادقة هي “يعتمد على الحالة”. أنظمة الذكاء الاصطناعي اليوم مذهلة في مجالات محددة لكنها ضعيفة بشكل كبير في مجالات أخرى. يمكن الوثوق بها في تحليل البيانات والتعرف على الأنماط، لكنها غالباً ما تختلق حقائق، وتفتقر للحس السليم، وتعكس تحيزات البشر. الثقة يجب أن تكون متناسبة مع المخاطر وإمكانيات التحقق.
مفارقة الثقة: لماذا كلنا مشوشين بعض الشيء بشأن الذكاء الاصطناعي
الأسبوع الماضي، طلبت من ChatGPT مساعدتي في تخطيط حفلة عيد ميلاد جدتي الثمانين. قدم لي قائمة طعام مفصلة بأكلاتها المفضلة (اللي أنا أصلاً مذكرتهاش)، وطمأنني أن التهاب المفاصل عندها مش هيكون مشكلة أثناء رقصة الكونجا (هي مفيهاش التهاب مفاصل أصلاً)، واقترح أن أدعو زميلتها في الجامعة مارج (اللي مش موجودة أصلاً). كل حاجة كانت بثقة مذهلة، وتفاصيل دقيقة، وكلها مختلقة تماماً.
حاسس إن ده مألوف؟ أهلاً بك في علاقة الثقة الغريبة اللي بنكونها كلنا مع الذكاء الاصطناعي. في لحظة بيحل مسائل رياضية معقدة أو يكتب شعر كويس، وفي اللحظة التانية بيقولك بكل ثقة إن الدلافين هي في الحقيقة مجرد خيول مبلولة أو إن أبراهام لنكولن هو اللي اخترع عصا السيلفي.
سؤال إذا كان ممكن نثق في الذكاء الاصطناعي مبقاش مجرد سؤال نظري – ده أصبح عملي وملح. مع تغلغل الأنظمة دي في كل حاجة من البحث عن وظيفة لتشخيصاتنا الطبية، كلنا بنصارع مع نفس السؤال الأساسي: إمتى لازم أثق في العراف الرقمي ده، وإمتى لازم أبعد عنه بهدوء؟
خلينا نفصل الموضوع…
ماذا نقصد عندما نتحدث عن “الثقة” في الذكاء الاصطناعي
عندما نناقش الثقة في الذكاء الاصطناعي، في الحقيقة بنتكلم عن تلات حاجات مختلفة:
- الموثوقية: هل هيشتغل باستمرار زي ما متوقع؟
- الدقة: هل المعلومات اللي بيقدمها صحيحة فعلاً؟
- التوافق: هل بيتصرف بما يتماشى مع قيمنا ونوايانا؟
فكر في الذكاء الاصطناعي زي الصاحب اللي شاطر جداً في الرياضيات بس فاشل في تحديد الاتجاهات. هتثق فيه يساعدك في الضرايب بس مش هتثق فيه عشان يوجهك في رحلة بالعربية في ريف مونتانا. الذكاء الاصطناعي مش موثوق به بشكل موحد أو غير موثوق به – عنده نقاط قوة وضعف محددة بتختلف بشكل كبير حسب اللي بتطلبه منه.
المجالات اللي بيتفوق فيها الذكاء الاصطناعي (ثق في الأجزاء دي)
خلينا نبدأ بالأخبار الحلوة. فيه مجالات مذهلة بجد اكتسبت فيها أنظمة الذكاء الاصطناعي الحالية درجة معقولة من الثقة:
- التعرف على الأنماط: أنظمة الذكاء الاصطناعي تقدر تحدد أنماط في مجموعات بيانات ضخمة ممكن البشر يفوتوها، من اكتشاف علامات مبكرة للمرض في الفحوصات الطبية لرصد الاحتيال في بطاقات الائتمان.
- إنشاء المحتوى الروتيني: محتاج مسودة أولى كويسة لمراسلات العمل العادية؟ الذكاء الاصطناعي يقدر يتعامل مع ده بموثوقية.
- معالجة وتنظيم البيانات: الذكاء الاصطناعي متفوق في فرز كميات هائلة من المعلومات وتقديمها بطرق مفيدة.
- التعاون الإبداعي: كشريك في العصف الذهني مابيتعبش أبداً، الذكاء الاصطناعي يقدر يساعد في توليد أفكار والتغلب على حواجز الإبداع.
بالنسبة للمهام دي، أظهر الذكاء الاصطناعي اتساق مثير للإعجاب. زميلي استخدم الذكاء الاصطناعي لتحليل نصوص خدمة العملاء واكتشف أنماط من عدم الرضا أدت لتحسينات مهمة في المنتج. الذكاء الاصطناعي مكانش بياخد القرارات – كان بس بيكشف رؤى يقدر البشر يتصرفوا بناءً عليها.
أين يفشل الذكاء الاصطناعي (مشاكل الثقة منتشرة)
دلوقتي لنكون واقعيين. دي المجالات اللي لازالت أنظمة الذكاء الاصطناعي الحالية غير جديرة بالثقة فيها أساساً:
- الدقة الواقعية: نماذج اللغة الكبيرة مش بتعرف “حقائق” فعلاً – بتتنبأ بالنص اللي المفروض ييجي بعد كده بناءً على أنماط في بيانات تدريبها. ده بيؤدي لـ “هلوسات” حيث بتنتج معلومات تبدو معقولة بس كاذبة تماماً بكل ثقة.
- المنطق السليم: رغم قدرات اللغة المذهلة، الذكاء الاصطناعي غالباً بيفتقر للحس السليم الأساسي. ممكن يكتب فقرة مقنعة عن الطبخ بس يقترح إنك تخبز الكوكيز على درجة حرارة 800 لمدة 3 ساعات.
- الحكم الأخلاقي: أنظمة الذكاء الاصطناعي مفيهاش بوصلة أخلاقية فطرية. ممكن تنتج محتوى ضار أو متحيز أو غير مناسب بدون ما تدرك إنه إشكالي.
- فهم السياق: الذكاء الاصطناعي غالباً بيفوت الفروق الثقافية أو السخرية أو العوامل الموقفية اللي هتكون واضحة للبشر.
المشكلة الأساسية هي إن أنظمة الذكاء الاصطناعي مش بتفهم العالم زينا. مفيش عندها خبرات أو مدخلات حسية خارج بيانات تدريبها. ده زي إنها قرأت ملايين الكتب عن السباحة بس معمرهاش دخلت المية.
اختبار الثقة: إطار للقرار متى نعتمد على الذكاء الاصطناعي
طيب إزاي نتعامل مع الخليط ده من القدرات والمحدوديات؟ أنا طورت إطار بسيط بسميه “اختبار الثقة” للمساعدة في تحديد متى ممكن الوثوق بالذكاء الاصطناعي ومتى الإشراف البشري ضروري:
- فحص المخاطر: ما مدى خطورة العواقب لو الذكاء الاصطناعي غلط في ده؟ كلما زادت المخاطر، كلما احتجت تحقق بشري أكتر.
- سهولة التحقق: هل تقدر بسهولة تتحقق من مخرجات الذكاء الاصطناعي؟ لو التحقق من الحقائق هياخد وقت أكتر من إنك تعمل المهمة بنفسك، أعد التفكير.
- توافق المجال: هل المهمة دي في نقاط قوة الذكاء الاصطناعي (التعرف على الأنماط، تحليل البيانات) ولا في نقاط ضعفه (الادعاءات الواقعية، قرارات الحكم)؟
- الحاجة للشفافية: هل محتاج تفهم إزاي اتوصل للإجابة؟ الذكاء الاصطناعي غالباً مش بيقدر يشرح منطقه بطرق مفهومة.
ده مش علم صواريخ، بس مفاجئ قد إيه ناس كتير بتتخطى الأسئلة الأساسية دي قبل ما تحط ثقتها في أنظمة الذكاء الاصطناعي. شفت مديرين تنفيذيين أذكياء بياخدوا قرارات مهمة بناءً على تقارير من الذكاء الاصطناعي من غير ما يتأكدوا إذا كانت الحقائق الأساسية دقيقة. سبويلر: كتير منها مكانش دقيق.
سيناريوهات الثقة في الواقع: الجيد والسيئ والقبيح
خلينا نشوف أمثلة ملموسة على الحالات اللي فيها الثقة في الذكاء الاصطناعي منطقية – والحالات اللي مينفعش أبداً:
ضوء أخضر: سيناريوهات ثقة معقولة
- المساعدة في الكتابة: استخدام الذكاء الاصطناعي للمساعدة في صياغة الإيميلات، تدقيق المستندات، أو توليد أفكار إبداعية مع مراجعة بشرية.
- الإنتاجية الشخصية: الذكاء الاصطناعي يقدر يتعامل بموثوقية مع الجدولة والتذكيرات واسترجاع المعلومات الأساسية.
- العصف الذهني منخفض المخاطر: توليد أفكار لهدية عيد ميلاد أو أنشط