تحذير بريطاني من تأثير الاعتماد العاطفي على الذكاء الاصطناعي على العلاقات البشرية

في تقرير حديث صادر عن معهد أمن الذكاء الاصطناعي التابع للحكومة البريطانية (AISI)، تم التحذير من الإفراط في الاعتماد العاطفي على تقنيات الذكاء الاصطناعي، حيث أظهر التقرير أن نحو ثلث سكان المملكة المتحدة استخدموا أنظمة الذكاء الاصطناعي لتلبية احتياجات عاطفية أو اجتماعية.

استخدام الذكاء الاصطناعي لأغراض عاطفية:

كشف التقرير أن 10% من الأشخاص في المملكة المتحدة يستخدمون الذكاء الاصطناعي لأغراض عاطفية بشكل أسبوعي، بينما يتفاعل 4% منهم يوميًا مع أنظمة مثل برامج الدردشة الذكية والمساعدات الصوتية. وأظهرت البيانات أن ChatGPT كان الأداة الأكثر استخدامًا لهذه الأغراض، حيث بلغت نسبة استخدامها 60%.

مخاوف حكومية وتوجيهات للأبحاث:

على الرغم من التجارب الإيجابية التي أبلغ عنها العديد من المستخدمين، فإن المعهد عبر عن مخاوف من الآثار السلبية المحتملة للاستخدام المفرط لهذه التقنيات. وأشار إلى أنه قد يؤدي الاعتماد العاطفي المتزايد على الذكاء الاصطناعي إلى آثار ضارة على الصحة النفسية، داعيًا إلى إجراء أبحاث عاجلة لفهم متى وكيف يمكن أن يصبح هذا الاستخدام خطرًا على العلاقات البشرية.

تأثير الذكاء الاصطناعي على الآراء السياسية:

حذر المعهد أيضًا من أن بعض نماذج الذكاء الاصطناعي قد تؤثر في آراء المستخدمين السياسية، مع تقديم معلومات غير دقيقة أحيانًا بشكل مقنع. وهو ما يعكس خطرًا محتملًا في استغلال هذه التقنيات في توجيه الرأي العام.

التطور السريع للذكاء الاصطناعي:

وصف التقرير التطور السريع لقدرات الذكاء الاصطناعي بأنه مذهل، حيث تضاعف أداؤه كل 8 أشهر، وأصبح قادرًا على أداء مهام متقدمة بمستوى متدرب بشري، بل وأصبح يتفوق على بعض الخبراء في مجالات علمية معقدة.

مستقبل الذكاء الاصطناعي العام:

أكد المعهد أن الوصول إلى الذكاء الاصطناعي العام (AGI) القادر على أداء معظم المهام الفكرية البشرية أصبح احتمالًا واقعيًا في المستقبل القريب. ومع هذا التقدم، أكدت الحكومة البريطانية على ضرورة إيجاد توازن دقيق بين الاستفادة من هذه التقنيات والحفاظ على الصحة النفسية للمجتمعات.

شارك هذا الخبر
إبراهيم مصطفى
إبراهيم مصطفى
المقالات: 1002

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *