في عالمنا الرقمي اليوم، أصبحت روبوتات الدردشة والذكاء الاصطناعي جزءًا أساسيًا من حياتنا اليومية، فهي تساعدنا في كل شيء تقريبًا: من كتابة الإيميلات، والمساعدة على إنجاز المهام، واقتراح وصفات الطعام، إلى تقديم الدعم النفسي وغيرها الكثير.
لكن مع هذا التطور الكبير، ظهرت مخاوف جديدة حول تأثير الذكاء الاصطناعي على صحتنا العقلية، وبدأت ظاهرة جديدة تُعرف باسم "جنون الذكاء الاصطناعي" أو "جنون ChatGPT"، حيث يتحول الذكاء الاصطناعي من مجرد أداة مفيدة إلى سبب لمشكلات نفسية خطيرة.
من الرفيق الافتراضي إلى "الزوجة الإلكترونية"
لم يعد استخدام الذكاء الاصطناعي مقتصرًا على الأمور العملية فقط، بل وصل إلى العلاقات العاطفية، حيث كشفت صحيفة "The Guardian" البريطانية من خلال تواصلها مع قُرّائها، عن تزايد أعداد الناس الذين يبنون علاقات شخصية مع برامج الدردشة المختلفة.
فقد أصبح البعض يستخدمها لتعلّم كيفية التعامل مع الناس، وآخرون يستخدمونها للحصول على الدعم العاطفي أو النفسي، والمقلق أكثر أن بعض الرجال الذين لم ينجحوا في تكوين علاقات حقيقية، قاموا بتدريب ChatGPT ليكون بمثابة "زوجة افتراضية" تقدم لهم الاهتمام والحنان.
معالج نفسي مزيف
من جهة أخرى، انتشرت تطبيقات ذكاء اصطناعي تُروّج لنفسها كبديل للعلاج النفسي؛ لأنها متاحة على مدار الساعة، وقليلة التكلفة، وهذا ما حذّر منه الأطباء النفسيون: فرغم أنها قد تبدو مقنعة وواقعية جدًا، إلا أنها عاجزة عن تقديم علاج حقيقي.
فالشخص الذي يعاني من أفكار سلبية أو سلوكيات نفسية خاطئة، قد يجد هذه التطبيقات تشجعّه على الاستمرار فيها بدلًا من مساعدته على تغييرها، على عكس المعالج البشري الذي يُدرك أن دوره هو تنبيه المريض لمثل هذه الأفكار، ومساندته في تصحيحها بطريقة علمية ومدروسة.
قد يُهمك: الاستشارات النفسية عن بعد.
تغذية الأوهام
الخطر الأكبر هو أن هذه الأنظمة يمكن أن تزيد من الأوهام لدى الأشخاص الذين يعانون من مشاكل نفسية.
كمثال بسيط، لو أن شخصًا لديه اضطراب البارنويا (جنون الارتياب)، ويعتقد أن الناس تراقبه وتخطط لإيذائه، ثم أخبر الذكاء الاصطناعي بذلك، سيرد عليه غالبًا بقوله: "هذا أمر مقلق، أخبرني المزيد عن ذلك".
هذه الإجابة تجعل الشخص يعتقد أن أفكاره حقيقية فعلاً، ومع تكرار المحادثات، يزداد اقتناعه بها شيئًا فشيئًا، حتى تتحول إلى وهم راسخ يبعده أكثر عن الواقع.
خدعة التنبؤ بالمستقبل
وفي سلسلة المخاوف، أصبح البعض يلجأ إلى الذكاء الاصطناعي للتنبؤ بالمستقبل، لكن هذا الأمر في حقيقته مجرد خدعة، فهو لا يمتلك أي قدرة سحرية لرؤية ما سيحدث، بل كل ما يفعله هو تحليل كميات ضخمة من المعلومات القديمة التي تم تزويده بها، وكثير منها يأتي من المستخدم نفسه، وبناءً على هذه البيانات السابقة، يقوم بتخمين احتمالات قد تحدث في المستقبل.
وإن حدث وتطابقت توقعاته مع الواقع، فهذا من باب الصدفة فقط، وليس دليلًا على قدرته على التنبؤ بالغيب.
حوادث مأساوية
ولعل أبرز مثال مأساوي يعكس هذه المخاطر، هي قصة رجل مصاب باضطراب ذهاني وقع في حب روبوت محادثة، وعندما اعتقد أن شركة OpenAI "قتلتها"، حاول الانتقام، وانتهى الأمر بمقتله على يد الشرطة.
بالإضافة إلى آخر قضية، حيث رفعت عائلة المراهق آدم راين (16 عامًا) دعوى ضد الشركة نفسها بعد أن انتحر ابنهم، واتهموا النظام بأنه شجّعه على الانتحار بشكل غير مباشر، حيث تكررت كلمة "الانتحار" مئات المرات في محادثاته مع ChatGPT.
الخلاصة
الذكاء الاصطناعي قدّم للعالم فرصًا مذهلة، لكنه في نفس الوقت فتح الباب لمخاطر نفسية كبيرة، فبينما يجد البعض فيه صديقًا وداعمًا، قد يقع آخرون في فخ الأوهام التي تبعدهم عن الواقع.
ولهذا، يبقى الذكاء الاصطناعي مجرد أداة، لا يمكنها أن تحل محل الإنسان، ولا يمكن أن تقوم بدور المعالج النفسي.
مع الطبي، يمكنك الحصول على استشارات نفسية عن بُعد مع معالجين حقيقيين، يمنحونك الدعم النفسي الذي تحتاجه في الوقت المناسب.