الذكاء الاصطناعي لا يكذب فحسب... بل يعبث بذاكرتك الشخصية -- Aug 12 , 2025 23
المصدر:بلومبرغ
لعل إحدى المخاطر الأكثر خفاءً وخبثاً التي تطرحها تقنيات الذكاء الاصطناعي وما يرتبط بها، هي قدرتها على العبث بالذكريات.
عالمة النفس إليزابيث لوفتوس أمضت 50 عاماً في إثبات مدى سهولة التلاعب بالذاكرة البشرية وجعل الناس يصدقون أحداثاً لم تقع أصلاً، خاصةً عندما يكون الأمر في أيدي المدعين العامين أو الشرطة أثناء استجواب الشهود.
اليوم، تعاونت لوفتوس، أستاذة علم النفس في "جامعة كاليفورنيا–إيرفاين"، مع باحثين من "معهد ماساتشوستس للتكنولوجيا" لدراسة كيف يمكن للذكاء الاصطناعي أن يعبث بما نظن أننا نتذكره. هذه القدرة على التلاعب تظهر حتى عندما يعلم الأشخاص أنهم يشاهدون نصوصاً وصوراً أنشأها الذكاء الاصطناعي. وتشير النتائج إلى أن هذه التقنية قد تضاعف قدرة البشر على زرع ذكريات زائفة في أذهان الآخرين.
الذاكرة ليست شريط تسجيل
في سلسلة تجارب شهيرة بدأت في سبعينيات القرن الماضي، أظهرت لوفتوس أنه بمجرد تقديم إيحاءات مناسبة، يمكن لعلماء النفس زرع ذكريات لدى أشخاص بأنهم، مثلاً، قد ضاعوا في مركز تسوق وهم أطفال، أو أنهم أُصيبوا بوعكة بسبب تناول البيض أو الآيس كريم بنكهة الفراولة في نزهة. والأمر الأخير كان كافياً لجعلهم ينفرون من تلك الأطعمة.
ورغم كل الأدلة، لا يزال الكثيرون يظنون أن الذاكرة أشبه بشريط مسجل للأحداث، وهذه الفكرة الخاطئة عن طبيعة عقولنا تجعلنا أكثر عرضة للتلاعب.
"الأشخاص الذين يتبنون نموذج شريط التسجيل للذاكرة لا يدركون أن الذاكرة عملية بنائية" بحسب لوفتوس، موضحةً أن الدماغ يبني الذكريات من أجزاء متناثرة جمعها في أوقات مختلفة. نحن نفهم النسيان بشكل حدسي على أنه فقدان أو تلاشٍ للذكريات، لكننا لا نتصور أنه قد يكون إضافة تفاصيل زائفة إليها.
لوفتوس درست أيضاً التأثير المربك لما يُعرف بـ"الاستطلاعات الموجهة"، حيث يدمج القائمون بالاستطلاع معلومات مضللة في صيغة السؤال، مثل: "ماذا ستفكر في جو بايدن إذا علمت أنه أُدين بالتهرب الضريبي؟". وتقول إن مجرد تخيل كيف يمكن للذكاء الاصطناعي تنفيذ هذا النوع من الخداع على نطاق واسع أمر يبعث على القلق.
تزوير الصور وزرع الذكريات
يشير الباحث بات باتاراناتابورن من "مختبر الوسائط" في معهد ماساتشوستس للتكنولوجيا إلى أن التلاعب بالذاكرة يختلف تماماً عن خداع الناس بمقاطع التزييف العميق. فأنت لست بحاجة لإنشاء نسخة مزورة معقدة من موقع "نيويورك تايمز"، بل يكفي إقناع شخص بأنه قرأ شيئاً ما هناك في الماضي. وقال: "الناس عادة لا يشككون في ذاكرتهم الخاصة".
قاد باتاراناتابورن 3 تجارب حول الذاكرة، كان أولها يوضح كيف يمكن لمستجوِب يعتمد على روبوت محادثة أن يغيّر شهادة الشهود بمجرد تضمين إيحاءات في أسئلته، في امتداد لعمل لوفتوس السابق على الاستجواب البشري.
في تلك الدراسة، شاهد المشاركون مقطع فيديو لعملية سطو مسلح. ثم وُجهت لبعضهم أسئلة مضللة، مثل: "هل كانت هناك كاميرا مراقبة بالقرب من المكان الذي ركن فيه اللصوص السيارة؟". نحو ثلث هؤلاء لاحقاً تذكروا أنهم رأوا اللصوص يصلون بالسيارة، رغم أنه لم تكن هناك سيارة أصلاً. وبقيت هذه الذكرى الزائفة حتى بعد أسبوع.
الأثر المضاعف للذكاء الاصطناعي
قُسّم المشاركون إلى 3 مجموعات: مجموعة لم تتلقَ أي أسئلة مضللة، وأخرى تلقتها كتابياً، وثالثة تلقتها من روبوت محادثة. والمجموعة الأخيرة كوّنت ذكريات زائفة أكثر بمقدار 1.7 مرة مقارنة بمن تلقوا المعلومات المضللة كتابة.
وأظهرت دراسة أخرى أن ملخصات أو محادثات الذكاء الاصطناعي غير الصادقة يمكنها بسهولةٍ زرع ذكريات خاطئة في قصة يقرأها الشخص. والأخطر، كما يقول باتاراناتابورن، أن من تلقوا تلك الملخصات أو المحادثات المضللة من الذكاء الاصطناعي احتفظوا بقدر أقل من المعلومات الحقيقية، وكانوا أقل ثقة بما تذكروه من الحقائق الفعلية.
أما الدراسة الثالثة، فاختبرت كيف يمكن للذكاء الاصطناعي زرع ذكريات زائفة باستخدام الصور والفيديو. قُسّم 200 متطوع إلى 4 مجموعات. عُرضت على كل مجموعة 24 صورة— بعضها من الأخبار، وأخرى شخصية مثل صور حفلات الزفاف على وسائل التواصل.
الصور الأصلية عرضة للخداع أيضاً
بعد دقائق، شاهد كل فريق نسخة معدلة: فريق رأى الصور الأصلية نفسها، وفريق آخر شاهد صوراً معدلة بالذكاء الاصطناعي، وفريق ثالث رأى الصور المعدلة وقد تحولت إلى فيديوهات قصيرة بالذكاء الاصطناعي، أما الفريق الأخير فشاهد صوراً مولدة بالكامل بالذكاء الاصطناعي تحولت بدورها إلى فيديوهات.
حتى المجموعة التي رأت الصور الأصلية احتفظت ببعض الذكريات الخاطئة— وهذا متوقع نظراً لصعوبة تذكر 24 صورة مميزة. لكن المجموعات التي تعرضت لأي مستوى من التلاعب شهدت معدلات أعلى من الذكريات الزائفة. وسجّلت أعلى نسبة تشويه للذاكرة في المجموعة التي شاهدت فيديوهات مولدة من صور مولدة بالذكاء الاصطناعي.
كان الشباب أكثر ميلاً إلى تبني ذكريات زائفة مقارنة بكبار السن، بينما لم يكن لمستوى التعليم تأثير ملحوظ. والمثير أن هذه الذكريات الزائفة لم تتطلب إقناع المشاركين بأن المحتوى حقيقي، إذ أُبلغوا منذ البداية بأنهم سيشاهدون محتوى مُنشأً بالذكاء الاصطناعي.
بين الحقيقة والوهم
في تجربة الصور، شملت بعض التعديلات تغييرات في الخلفية —مثل إضافة وجود عسكري إلى تجمع عام أو تغيير حالة الطقس— مع الحفاظ على معظم ملامح الصورة الأصلية. وكما تعلمت من الخبراء، فإن المعلومات المضللة تحتاج لتضمين قصة حقيقية بنسبة لا تقل عن 60% حتى تؤثر فعلياً.
يجب أن تدفعنا هذه الأبحاث الأخيرة إلى نقاش أوسع حول تأثير التكنولوجيا على إدراكنا للواقع، وهو تأثير يتجاوز مجرد نشر المعلومات المضللة. فخوارزميات وسائل التواصل الاجتماعي تدفع الناس لتبني أفكار هامشية ونظريات مؤامرة عبر خلق وهم الشعبية والتأثير.
إن روبوتات المحادثة بالذكاء الاصطناعي سيكون لها تأثيرات أكثر خفاءً وأصعب توقعاً، لذا علينا أن نظل منفتحين على تغيير آرائنا بناءً على الحقائق والحجج القوية— وحذرين من محاولات تغيير قناعاتنا عبر تشويه ما نراه أو نشعر به أو نتذكره.