لعدم برمجته على إمكان قول (لا أعرف) يتَّجه برنامج «تشات جي بي تي» المُعدُّ بتقنيَّة الذَّكاء الاصطناعي إلى المثول أمام القضاء بدعوى التشهير بسياسي أسترالي، فيما يواجه الخبراء هذا المأزق بالسَّعي إلى جعل الذَّكاء الاصطناعي ينسى بعضًا ممَّا تعلَّمه.
وتعود القصَّة إلى اكتشاف السِّياسي الأسترالي براين هود أنَّ «تشات جي بي تي» نسب إليه ماضيًا إجراميًّا، لِيلوحَ في أبريل الماضي باتِّخاذ إجراء قانوني ضدَّ شركة «أوبن إيه آي» (منشئة «تشات جبي بي تي») بعدما قال إنَّ السِّياسي متورط في فضيحة رشوة.
كما تنضمُّ هذه الواقعة إلى أخرى مشابهة عِندما كان طالب يجري بحثًا عن علماء اتُّهموا بالتحرش واستعان بـ»تشات جي بي تي» الَّذي أشار إلى أنَّ أستاذ القانون في جامعة جورج واشنطن بالولايات المُتَّحدة، جوناثان تورلي، أنَّه تحرَّش بإحدى الطالبات.
والواقع أنَّ هذه الأخطاء هي أمْرٌ وارد، حيث إنَّ إجابات «تشات جي بي تي» تعتمد بالمقام الأوَّل على قدرة الذَّكاء الاصطناعي على البحث العميق وجمع المعلومات المتاحة من كافَّة المواقع والمنتديات عَبْرَ الإنترنت دُونَ التحقق من مدى مصداقيَّتها أو صحَّتها، وبالتَّالي فهو يتعامل مع الإشاعات والأكاذيب على أنَّها حقائق.
ولحلِّ هذه المعضلة يسعى المهندسون إلى حلول تتيح تحديدًا أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذَّكاء الاصطناعي بغية وقف انتشارها.
كما توصَّلت أبحاث أخرى في هذا المجال، في إدخال خوارزميَّة تأمر الذَّكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار، ولا تتضمن تعديل قاعدة البيانات أي ما يحاكي نسيان بعض المعلومات.
وإذا كانت هذه الوقائع تؤخذ في بعض الأحيان على محمل التندر، إلَّا أنَّها تدقُّ أيضًا ناقوس خطر حَوْلَ الاعتماد المفرط والكُلِّي على برامج «تشات جي بي تي»؛ إذ إنَّها تعرض الجهود العلميَّة والبحثيَّة إلى الخروج بنتائج خاطئة، وبالتَّالي فلا بُدَّ من وضع هذه البرامج في سياق محدَّد، وهو أنَّها برامج تساعد على تسريع البحث والحصول على المعلومات لكنَّها تتطلب عقلًا ناقدًا يفنِّد ويفرز هذه المعلومات.



هيثم العايدي
كاتب صحفي مصري
[email protected]