تطوير “كاشف كذب” للذكاء الاصطناعي
طور باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) أداة مبتكرة تعمل بمثابة “كاشف كذب” لأنظمة الذكاء الاصطناعي، تُجبر هذه الأنظمة على التصريح بصراحة عن مدى تأكدها من نتائجها أو اعترافها بوجود شك.
وقد أطلق هؤلاء العلماء شركة ناشئة تهدف إلى تدريب نماذج الذكاء الاصطناعي على إدراك حدود معرفتها، وتجنب إصدار قرارات غير موثوقة عبر إلغائها تلقائيًا.
الشركة الجديدة، التي تحمل اسم Themis AI، طورت منصة تُعرف باسم “كابسا” (Capsa)، مصممة لتقييم موثوقية مخرجات الذكاء الاصطناعي في اللحظة نفسها. وتهدف هذه المنصة إلى تقليل الأخطاء في قطاعات حساسة مثل صناعة الأدوية، والاتصالات، وتكنولوجيا القيادة الذاتية.
وتتوافق “كابسا” مع مختلف نماذج تعلم الآلة، بما في ذلك النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT، حيث تقوم بتحليل البيانات المستخدمة في التنبؤات لرصد أي علامات تشير إلى الشك، أو التحيز، أو نقص المعلومات. فإذا تبين أن تنبؤاً معيناً يعتمد على بيانات غير كافية، تصنفه المنصة كغير موثوق، وتقترح تصحيح المسار أو إدخال تعديلات.
وفي المجال الدوائي تحديدًا، تميز “كابسا” بين التوقعات المبنية على بيانات حقيقية، وتلك التي تندرج ضمن التخمين، ما يسهم في رفع موثوقية النتائج وتقليل المخاطر. وتتمتع المنصة بقدرة فائقة على معالجة البيانات خلال أجزاء من الثانية، ما يجعلها ملائمة للاستخدام حتى على الهواتف الذكية والأجهزة الطرفية.
وتُستخدم هذه التقنية حاليًا في عدة قطاعات، منها شركات الاتصالات لأتمتة الشبكات، وشركات الطاقة لتحليل الصور الزلزالية، وقطاع الأدوية لتحسين دقة التنبؤ بخصائص المركبات الدوائية.
وتُعد هذه المنصة خطوة مهمة نحو تعزيز شفافية الذكاء الاصطناعي وزيادة الثقة به، ما يمهد الطريق لاستخدام أكثر أمانًا لهذه التكنولوجيا في مختلف المجالات المستقبلية