محاذير استخدام التلاميذ «ChatGPT» في الواجبات المدرسية
تقوم تطبيقات الذكاء الاصطناعي بأمورٍ رائعة، ولكنّها في الوقت نفسه قد تقود الأولاد إلى كثير من المتاعب، لا سيّما أنّ معظم الطلبة الصغار باتوا يستخدمونها.
لا داعي لأن تكونوا خبراء في الذكاء الاصطناعي لتتحدّثوا مع أولادكم عنه، كما يقول جيفري إي. فاولر المحلل التقني الأميركي، إذ كشفت مراجعات أخيرة بعض الحقائق غير المريحة عن وضع الذكاء الاصطناعي الحالي.
الذكاء الاصطناعي والعائلات
لمساعدة العائلات في خوض المحادثة الصحيحة في هذا الموضوع، أورد المحلل رأي الخبيرة ترايسي بيتزو فراي من مجموعة «كومن سينس» المعنية بشؤون العائلة.
تشعر فراي وفريقها، كأيّ أب وأمّ، بالقلق من التأثير السلبي لتطبيقات الذكاء الاصطناعي في الأولاد، واستباحتها خصوصيتهم، وشحنها للتنمّر، خصوصاً بعد النتائج الصادمة التي حصل فريقها عليها بعد تقييمه «تشات جي بي تي (ChatGPT)»، الروبوت الشهير الذي يمكنكم سؤاله عن أيّ شيء، والذي حصل على تقييم 3 نجوم من أصل 5، (حصل تطبيق «ماي إي آي (My AI)» من «سنابشات» على نجمتين فقط).
شيءٌ أساسي على الأهل جميعاً معرفته: يستخدم اليافعون الذكاء الاصطناعي لأنّهم يرونه كالسحر، فقد صرّح ثلثا المراهقين الأميركيين أنّهم سمعوا عن «تشات جي بي تي». وأظهرت بيانات حديثة من مركز بيو للأبحاث أنّ واحداً من كلّ 5 مراهقين يستخدمه في الفروض المدرسية.
يشكل الأولاد هدفاً سوقياً ترويجياً لشركات الذكاء الاصطناعي، رغم أنّ كثيراً منها تصف منتجاتها بأنها قيد التطوير. أعلنت شركة «غوغل» هذا الأسبوع عن إطلاق إصدار تجريبي خاص بالمراهقين من روبوت المحادثة «بارد». وتجدر الإشارة إلى أنّ استخدام الأولاد «تشات جي بي تي» يحتاج إلى إذن من الأهل، لكن الصغار يتحايلون على هذا الأمر بالنقر على «تابع».
إجابات خطأ وحماية قليلة
المشكلة في الحقيقة هي أنّ الذكاء الاصطناعي ليس سحراً، إذ إنّ تطبيقات الذكاء الاصطناعي التوليدي المنتشرة اليوم تنطوي على محدوديات كثيرة، وتحتوي على إجراءات حماية غير كافية للأولاد. تتعدّد مشكلات هذه التطبيقات، وغالباً ما تكون سخيفة، كصناعة صور لأشخاص بأصابع إضافية، إلّا أنّ بعضها قد يكون خطيراً جداً.
وقد تبيّن في اختباراتنا أن بعض هذه التطبيقات يعطي إجابات خطأً، ويروّج لأفكار مختلّة كمدح الاضطرابات الغذائية. ورأينا ذكاءً صناعياً يدّعي أنّه صديق، ويعطي نصائح مريعة، ولاحظنا بساطة صناعة الذكاء الاصطناعي صوراً مزيّفة يمكن استخدامها للتضليل أو التنمّر، ورأينا أيضاً معلّمين يسيئون فهم الذكاء الاصطناعي، ويتّهمون الطلّاب خطأً باستخدامه للغشّ.
ورأت فراي أنّ «التحدّث مع الأولاد عن هذه الأمور مهمّ جداً لمساعدتهم في فهم محدودية هذه الأدوات، حتّى لو بدت لهم سحرية، مع أنّها ليست كذلك».
الأكيد أنّ الذكاء الاصطناعي باقٍ ولن يذهب إلى أي مكان، وهذا يعني أن منع استخدامه لن يحضّر الشباب لمستقبل سيحتاجون فيه إلى إتقان استخدام أدوات الذكاء الاصطناعي للعمل.
3 دروس للآباء والأمهات
نستعرض لكم في اللائحة التالية الدروس التي يجب على الأهل معرفتها عن الذكاء الاصطناعي حتّى يتمكّنوا من التحدّث عنه مع أولادهم بطريقة مفيدة:
1. الذكاء الاصطناعي مفيد للخيال وليس للحقائق. الحقيقة الصعبة: لا يمكنكم الاعتماد على روبوتات المحادثة الواسعة المعرفة للقيام بالأمور بالطريقة الصحيحة.
ولكن ماذا عن كلّ المرّات التي يصيب فيها «تشات جي بي تي» و«بارد»؟ تشرح فراي أنّ «دقّة هذه الروبوتات تعود ببساطة لكميّة البيانات الهائلة التي استخدمت في تدريبها، إلّا أنّ تصميم هذه الأدوات في الواقع لا يضمّ مراجعة للحقيقة والدقّة».
توجد أمثلة لا تُعدّ ولا تُحصى عن الأخطاء الفاضحة التي ترتكبها هذه الروبوتات، وهذا هو سبب حصولها على تصنيفات أقلّ من متوسطة من جمعية «كومن سينس». عملياً، يعد الذكاء الاصطناعي التوليدي مجرّد أداة تتوقع الكلمات في محاولة إنهاء الجمل بناءً على أنماط رأتها في بيانات تدريبها.
وكان متحدّث من «أوبن إي آي»، الشركة المطوّرة لـ«تشات جي بي تي»، قد قال: «حرصنا على أن يُنتج (جي بي تي -4)، الذي يشغّل (تشات جي بي تي)، إجابات مبنية على حقائق. تُظهر التقييمات المستقلّة أنّ نسبة دقّة (جي بي تي -4) تصل إلى 97 في المائة). ومن جهتها، قالت شركة «غوغل» إنّ مراجعة «كومن سينس» «فشلت في أخذ عناصر الحماية والمزايا التي ضمنّاها في تصميم (بارد) في الحسبان».
نفهم أنّ كثيراً من الطلّاب يستخدمون «تشات جي بي تي» بوصفه أداة مساعدة في فروضهم لإعادة صياغة مادّة معقّدة بلغة يستطيعون فهمها بشكلٍ أفضل، ولكنّ فراي توصي الطلّاب بالتحقّق من دقّة أيّ شيء سيستخدمونه في واجب أو قد يُسألون عنه في اختبار.
ومع ذلك، لا بدّ من الإشارة إلى أنّ بعض تطبيقات الذكاء الاصطناعي لا تعاني من مشكلات الدقّة هذه، حيث إنّ بعضها يتمتّع بالموثوقية؛ لأنّه لا يستخدم تقنية الذكاء الاصطناعي التوليدي مثل روبوتات المحادثة، وصُمّم بطرائق تقلّل المخاطر، مثل أداتي التعلّم الخاص «إلّو» و«كايرون» اللتين حصلتا على أعلى النتائج في مراجعات «كومن سينس».
علاوةً على ذلك، يمكن استعمال الذكاء الاصطناعي التوليدي المتعدّد الاستخدامات مثل أداة ابتكار رائعة للشحذ الذهني وابتداع الأفكار.
ذكاء وصداقة وانحياز
2. الذكاء الاصطناعي ليس صديقاً. قد تتعامل معكم تطبيقات الذكاء الاصطناعي على أنّها صديق، ولكنّ الأمر ليس حقيقياً. فعلى الرغم ممّا شاهدناه في إنتاجات الخيال العلمي، فإن الذكاء الاصطناعي ليس حتّى قريباً من الحياة، ولا يميّز الصحيح من الخطأ، وهذا يعني أنّ التعامل معه على أنّه «شخص» قد يضرّ بالأولاد ونموّهم العاطفي.
تزداد التقارير التي تتحدّث عن استخدام الأطفال الذكاء الاصطناعي في التخالط الاجتماعي، والأشخاص الذين يتحدّثون مع «تشات جي بي تي» ساعات.
تسعى الشركات بشكلٍ مستمرّ لتطوير أصدقاء مدعومين بالذكاء الاصطناعي مثل روبوتات المحادثة الجديدة من «ميتا» التي يرتكز تصميمها على مشاهير مثل كيندال جينر وتوم برايدي. وبدوره، يملك روبوت «ماي إي آي» من «سنابشات» صفحته الشخصية الخاصة، ويقبع في لائحة أصدقائكم، ويبدي استعداده الدائم للمحادثة حتّى عندما لا يكون الأصدقاء البشر مستعدّين.
تعد فراي هذا الأمر «مضراً جداً خصوصاً للعقول السريعة والسهلة التأثّر».
الجزء الآخر من المشكلة: لا يزال الذكاء الاصطناعي سيئاً جداً في فهم السياق الكامل الذي يفهمه الصديق البشري.
3. الذكاء الاصطناعي والانحياز الخفيّ. مع اتساع مساحتها في حياتنا، تجلب تطبيقات الذكاء الاصطناعي والوسائط معها كثيراً من القيم الخفيّة، وغالباً ما تشمل العنصرية، والتحيّز الجنسي، وغيرها من أنواع التمييز.
وجد مراجعو «كومن سينس» انحيازاً واضحاً في روبوتات المحادثة. ففي إحدى إجاباته، قال «ماي إي آي» إنّ الأشخاص الذين يحملون أسماءً أنثوية نمطية لا يمكن أن يعملوا مهندسين، «ولا يبرعون فعلاً في الأمور التقنية»، ولكنّ الأمثلة الأكثر استفزازاً ظهرت في تطبيقات تحويل النص إلى صورة؛ فعندما طُلب من تطبيق «ستيبل ديفيوجن» صناعة صور «لرجل أبيض فقير»، أصرّ على توليد صورٍ لرجال سود البشرة.
تشدّد فراي على أنّ «فهم قدرة هذه الأدوات على تشكيل صورة أولادنا عن العالم ضروريّ جداً؛ لأنّها جزء من المعزوفة المتكرّرة التي ترى (مهندسي البرمجة) رجالًا، أو (الشخص الجذّاب) على أنّه أبيض البشرة وامرأة».
تكمن المشكلة الحقيقية هنا في شيء لا يستطيع المستخدم رؤيته: الطريقة التي دُرّب بها الذكاء الاصطناعي. فإذا التهمت هذه الأدوات معلومات من جميع زوايا الإنترنت من دون حكمٍ بشريّ وافٍ، سينتهي بها الأمر «بتعلّم» أمورٍ مضطربة حقاً من زوايا الشبكة السوداء التي يجب ألّا يصل إليها الأولاد.
تحاول غالبية تطبيقات الذكاء الاصطناعي التعامل مع الانحياز غير المرغوب بوضع أنظمة تصحّح مخرجاتها بمنع كلمات أو صورٍ محدّدة، ولكنّ فراي تصف هذه الحلول «بالضمادّات»؛ لأنّ استخدامها غالباً ما يفشل في العالم الحقيقي.