0020
moasem
sum
003
004
006
007
008
previous arrow
next arrow

تحذير طبي من خدمة سناب شات الجديدة

وكالة الناس –  بات أي مستخدم لتطبيق “سناب شات” يتمتع الآن بإمكانية الوصول المجاني إلى برنامج “My AI”، الذي أصدر لأول مرة كميزة مدفوعة في فبراير.

و”My AI” برنامج دردشة مباشر يعتمد على الذكاء الاصطناعي، ومتاح حاليا لجميع مستخدمي “سناب شات”.

وتقول “سناب شات”، إن “My AI” يجري تشغيله بواسطة تقنية “ChatGPT” من “OpenAI”، مع تحسينات أمان إضافية وعناصر تحكم فريدة لـ”سناب شات”.

وتضيف أنه “في محادثة الدردشة، يمكن أن يجيب My AI على سؤال بسيط، أو يقدم المشورة بشأن هدية مثالية لصديق عزيز، أو يساعدك على التخطيط لرحلة أو لقضاء عطلة نهاية أسبوع”.

إلا أن المراهقين باتوا يستخدمونه لغرض آخر، وهو الحصول على دعم لصحتهم النفسية والعقلية، حسبما كشف موقع “فوكس نيوز” الأميركي.

وكتب أحد مستخدمي البرنامج على “Reddit”: “كانت الردود التي تلقيتها من My AI عن الصحة والراحة النفسية مفيدة وغيرت وجهة نظري في لحظة شعرت فيها بالإرهاق والتوتر”.

وأضاف: “إنه ليس برنامجا بشريا، لكنه بالتأكيد يقترب جدا (وفي بعض الأحيان أفضل من البشر)”.

وذكر مستخدم آخر: “ردود My AI لطيفة للغاية وودودة، لكنك تدرك بعد ذلك أنه ليس شخصا حقيقيا”.

في المقابل، يحذر الأطباء من استخدام الإمكانيات الكبيرة للذكاء الاصطناعي للمساعدة في دعم الصحة العقلية بشكل عام.

وفي هذا الصدد، قال الطبيب النفسي أستاذ الأبحاث في جامعة كولومبيا في نيويورك رايان سلطان، لـ”فوكس نيوز”: “مع تحسن هذه التكنولوجيا، حيث إنها باتت تحاكي العلاقة الشخصية أكثر وأكثر، قد يبدأ البعض في اعتبار الذكاء الاصطناعي علاقة شخصية مهيمنة في حياتهم”.

وأضاف: “أفكار الناس مبعثرة بشأن الذكاء الاصطناعي. هناك من يعتبره مفيدا وهناك من يجده مخيفا”.

واعتبر سلطان أن “البعض رأى الخدمة محدودة إلى حد ما، وتعطي فقط معلومات عامة قد تجدها إذا بحثت في غوغل عن سؤال”.

وتابع: “قال آخرون إنهم يجدونها مخيفة. من الغريب أن يرد شخص آلي على الأسئلة الشخصية بطريقة شخصية، علاوة على ذلك، فهم لا يحبون فكرة الحديث عن بيانات عن صحتهم العقلية الشخصية”.

ومن جهة أخرى، أشار المستشار النفسي في كاليفورنيا زاكاري غيندر، إلى بعض العلامات التحذيرية الهمة التي ينبغي أن توقف الآباء ومقدمي خدمات الصحة العقلية.

وقال لـ”فوكس نيوز”، إنه “من خلال استجابات الذكاء الاصطناعي الشبيهة بالإنسان، قد يكون من الصعب على المستخدمين الأصغر سنا التمييز بين ما إذا كانوا يتحدثون إلى إنسان حقيقي أو روبوت”.

وأوضح أن “الذكاء الاصطناعي يتحدث بسلطة إكلينيكية تبدو دقيقة في ظاهرها، رغم أنها تختلق إجابة غير صحيحة أحيانا”.

وفي السياق ذاته، يقول مقدمو خدمات الصحة العقلية إن “المعلومات المضللة” التي يقدمها أحيانا برنامج الذكاء الاصطناعي قد تكون “مصدر قلق رئيسيا”، على اعتبار أنها قد تقود الأشخاص إلى “مسارات تقييم وعلاج غير ملائمة لاحتياجاتهم”.

“سكاي نيوز”