استخدام أداة الذكاء الاصطناعى ChatGPT… فى الصحة النفسية.
تستخدم شركة Koko، التي تقدم خدمات مجانية وغير ربحية لدعم الصحة العقلية عبر الإنترنت، تقنية الذكاء الاصطناعي لتطوير ردود فعل لمستخدميها. وفقًا لروب موريس، المؤسس المشارك للشركة، فإنهم استخدموا نظام ChatGPT، وهو نوع من أنظمة GPT-3 التي تنتج نصوصًا تشبه الإنسان، لإنشاء رسائل لأكثر من 4000 مستخدم.
وأضاف موريس أنهم اختبروا نظامًا يجمع بين الذكاء الاصطناعي والإشراف البشري في منصة اسمها دعم الزملاء، والتي تسمح للمستخدمين بالحصول على المساعدة أو تقديمها للآخرين. وقال موريس إن استخدام GPT-3 جعل عملية المساعدة أسهل وأكثر كفاءة وفعالية.
GPT-3 هو نظام ذكاء اصطناعي قوي تم إنشاؤه بواسطة OpenAI، وهو مؤسسة بحث غير ربحية. يستطيع GPT-3 إنشاء نصوص بناءً على المطالبات التي يتلقاها من المستخدمين
لم يكن المستخدمون على علم في البداية بأن الرسائل التي يتلقونها مولدة بواسطة آلة. وقال موريس إن هذا له أثراً سلبيا على تجربتهم. وأضاف أنه عندما أصبحت هذه الميزة متاحة، كان المستخدمون يعرفون أن الرسائل تولدها آلة بالتعاون مع إنسان
وذكر موريس أن الرسائل التي تحتوي على عنصر من الذكاء الاصطناعي حصلت على تقييمات أفضل من تلك التي كتبها البشر فقط. كما انخفضت أوقات الانتظار للاستجابة بفضل التكنولوجيا.
الجانب الأخلاقي والقانوني
أثارت هذه التجربة جدلاً على تويتر، حيث اتهم بعض خبراء الصحة العامة والتكنولوجيا الشركة بانتهاك قانون الموافقة المستنيرة، وهو قانون فيدرالي يطلب من المشاركين في الأبحاث إعطاء موافقتهم قبل البدء فيها.
وعلق إريك سيوفيرت، وهو محلل إعلامي وباحث، على تويتر قائلاً: هذا غير أخلاقي على الإطلاق
وغرد كريستيان هيسكث، وهو عالم إكلينيكي، قائلاً: “يا إلهي… كان يجب أن يحصل المشاركون على موافقة مستنيرة وكان يجب أن يمر هذا بمجلس المراجعة المؤسسية
وأوضح موريس أنهم لم يقموا بإقران المستخدمين مع GPT-3 دون علمهم. وقال إن هذه الميزة تم إزالتها بعد أن أدركوا أنها لا تعطي تجربة أصلية للمستخدمين
وقال موريس إن كل مستخدم يجب أن يوافق على استخدام الخدمة. وأضاف أن هذه ليست دراسة جامعية، بل مجرد اختبار لميزة منتج. وأشار إلى أن هذه التجربة لم تزد من المخاطر على المستخدمين، ولم تكن خادعة، ولم يتم جمع أي بيانات شخصية أو صحية
ولكن هذه التجربة تطرح تساؤلات حول الأخلاقيات والضوابط المحيطة باستخدام الذكاء الاصطناعي في مجال الرعاية الصحية، والتي كانت مثار جدل في الأوساط الأكاديمية.
آرثر كابلان، أستاذ أخلاق الطب الحيوي في كلية جروسمان للطب بجامعة نيويورك، كتب أن استخدام تقنية الذكاء الاصطناعي دون إبلاغ المستخدمين غير أخلاقي تمامًا
وقال كابلان إن تدخل ChatGPT ليس معيارًا للرعاية. وأضاف أنه لم يتم التحقق من فعالية هذه التقنية أو تحديد المخاطر المحتملة من قبل أي جهة نفسية.