المجلة: Journal of Multidisciplinary Healthcare
DOI: https://doi.org/10.2147/jmdh.s447368
PMID: https://pubmed.ncbi.nlm.nih.gov/38314011
تاريخ النشر: 2024-01-01
DOI: https://doi.org/10.2147/jmdh.s447368
PMID: https://pubmed.ncbi.nlm.nih.gov/38314011
تاريخ النشر: 2024-01-01
تقييم فعالية ChatGPT في تقديم الدعم النفسي: دراسة نوعية
المراسلة: فهد العنزي، هاتف + 13-3330030، بريد إلكترونيfmoalanezi@iau.edu.sa
الملخص
الخلفية: يتم البحث على نطاق واسع في تطبيقات الذكاء الاصطناعي (AI) لإمكاناتها في تحسين عمليات الرعاية الصحية وإدارة الأمراض بشكل فعال. ومع ذلك، تظهر اتجاهات البحث أن هذه التطبيقات لها أيضًا آثار سلبية كبيرة على تقديم الخدمة.
الهدف: تقييم استخدام ChatGPT للدعم النفسي.
الطرق: نظرًا لجدة وعدم معرفة تقنية ChatGPT، تم اختيار تصميم شبه تجريبي لهذه الدراسة. تم تضمين المرضى الخارجيين من مستشفى عام في العينة. تم إجراء تجربة لمدة أسبوعين تلتها مقابلات شبه منظمة حيث استخدم المشاركون ChatGPT للدعم النفسي. تم إجراء مقابلات شبه منظمة مع 24 فردًا يعانون من حالات نفسية.
النتائج: تم ربط ثمانية عوامل إيجابية (التثقيف النفسي، الدعم العاطفي، تحديد الأهداف والتحفيز، إحالة المعلومات والموارد، التقييم الذاتي والمراقبة، العلاج السلوكي المعرفي، التدخلات في الأزمات، والتمارين النفسية) وأربعة عوامل سلبية (الاعتبارات الأخلاقية والقانونية، الدقة والموثوقية، قدرات التقييم المحدودة، والاعتبارات الثقافية واللغوية) باستخدام ChatGPT للدعم النفسي.
الاستنتاج: من المهم النظر بعناية في التحديات الأخلاقية والموثوقية والدقة والقانونية وتطوير استراتيجيات مناسبة للتخفيف منها لضمان الاستخدام الآمن والفعال للتطبيقات المعتمدة على الذكاء الاصطناعي مثل ChatGPT في الدعم النفسي.
الكلمات الرئيسية: ChatGPT، الذكاء الاصطناعي، المرضى النفسيين، الدعم، التحفيز، القلق
الطرق: نظرًا لجدة وعدم معرفة تقنية ChatGPT، تم اختيار تصميم شبه تجريبي لهذه الدراسة. تم تضمين المرضى الخارجيين من مستشفى عام في العينة. تم إجراء تجربة لمدة أسبوعين تلتها مقابلات شبه منظمة حيث استخدم المشاركون ChatGPT للدعم النفسي. تم إجراء مقابلات شبه منظمة مع 24 فردًا يعانون من حالات نفسية.
النتائج: تم ربط ثمانية عوامل إيجابية (التثقيف النفسي، الدعم العاطفي، تحديد الأهداف والتحفيز، إحالة المعلومات والموارد، التقييم الذاتي والمراقبة، العلاج السلوكي المعرفي، التدخلات في الأزمات، والتمارين النفسية) وأربعة عوامل سلبية (الاعتبارات الأخلاقية والقانونية، الدقة والموثوقية، قدرات التقييم المحدودة، والاعتبارات الثقافية واللغوية) باستخدام ChatGPT للدعم النفسي.
الاستنتاج: من المهم النظر بعناية في التحديات الأخلاقية والموثوقية والدقة والقانونية وتطوير استراتيجيات مناسبة للتخفيف منها لضمان الاستخدام الآمن والفعال للتطبيقات المعتمدة على الذكاء الاصطناعي مثل ChatGPT في الدعم النفسي.
الكلمات الرئيسية: ChatGPT، الذكاء الاصطناعي، المرضى النفسيين، الدعم، التحفيز، القلق
المقدمة
الصحة النفسية مهمة لعدة أسباب. أولاً، لها تأثير على كيفية عملنا والعيش كل يوم. الأشخاص الذين يتمتعون بصحة نفسية جيدة أكثر قدرة على التعامل مع الضغوط، والحفاظ على علاقات إيجابية، والعمل بفعالية في حياتهم الشخصية والمهنية.
كما تؤثر على قدرتنا على التعلم، واتخاذ القرارات، والتكيف مع التغيرات في بيئتنا. ثانيًا، هناك علاقة مباشرة بين الصحة النفسية والبدنية.
تم ربط العديد من الأمراض الصحية البدنية، مثل مشاكل الجهاز الهضمي، واضطرابات الجهاز المناعي، وأمراض القلب والأوعية الدموية، بحالات الصحة النفسية مثل الاكتئاب والقلق. بالإضافة إلى ذلك، تتأثر نتائج الصحة البدنية بالأنشطة النفسية، بما في ذلك النوم، والتمارين، والتغذية.
ثالثًا، تعتمد رفاهية المجتمع والنسيج الاجتماعي على الصحة النفسية. تعزز الصحة النفسية التفاعلات الاجتماعية الإيجابية، والروابط الاجتماعية الأقوى، وإحساس المجتمع والانتماء.
من ناحية أخرى، يمكن أن تؤدي مشاكل الصحة النفسية التي لا تعالج إلى الإقصاء الاجتماعي، والعلاقات المتوترة، وآثار اجتماعية ضارة مثل ارتفاع تكاليف الرعاية الصحية وانخفاض الإنتاجية.
الصحة النفسية أيضًا حق إنساني أساسي. لكل شخص الحق في التمتع بأفضل مستوى ممكن من الصحة النفسية، وفقًا لمنظمة الصحة العالمية (WHO)، التي تعترف بالصحة النفسية كعنصر حاسم في الصحة والرفاهية.
من الضروري إعطاء الأولوية للصحة النفسية وضمان وصول الأفراد إلى خدمات الدعم النفسي الكافية. إدراكًا لأهميتها، تعتبر الصحة النفسية واحدة من
أهداف التنمية المستدامة من قبل الأمم المتحدة. تعتبر الأمراض النفسية واحدة من المشاكل الصحية الخطيرة التي تؤثر على مستوى العالم. تشمل بعض الحالات النفسية الرئيسية القلق، والاكتئاب، واضطراب تعاطي المخدرات، واضطراب ثنائي القطب، والفصام، واضطرابات الأكل، واضطراب الوسواس القهري، واضطراب ما بعد الصدمة.
بالإضافة إلى ذلك، يمكن أن تظهر بعض المشكلات مثل خلل الحركة المتأخر بسبب الآثار الجانبية للأدوية.
وفقًا لإحصائيات 2019،
من السكان العالميين يعيشون مع اضطرابات نفسية، مما يمثل حوالي مليار شخص. من بين الاضطرابات النفسية، القلق له أعلى معدل انتشار من
، يليه الاكتئاب (
)، اضطراب النمو (11.1%)، اضطراب نقص الانتباه/فرط النشاط (8.8%)، واضطراب ثنائي القطب (4.1%).
لوحظ أن الأشخاص الذين يعانون من اضطرابات نفسية مزمنة مثل اضطراب الاكتئاب المتكرر يموتون قبل 7 إلى 1 سنوات من السكان العامين.
فقط
من البلدان ذات الدخل المنخفض،
من البلدان ذات الدخل المتوسط الأدنى،
من البلدان ذات الدخل المتوسط الأعلى، و
من البلدان ذات الدخل المرتفع أبلغت عن سياسة أو خطة تنفيذ متوافقة بالكامل فيما يتعلق بالأمراض النفسية، مما يشير إلى نقص في النهج الفعال على مستوى السياسات، مع مزيد من الجدية في البلدان ذات الدخل المنخفض.
على الرغم من خطورة المشكلة، تخصص الحكومات عالميًا فقط
من ميزانيتها الصحية لعلاج والوقاية من الاضطرابات النفسية.
أهداف التنمية المستدامة من قبل الأمم المتحدة.
علاوة على ذلك، عالميًا، يركز فقط
من أبحاث الصحة على الصحة النفسية،
مما يشير إلى أن هذا المجال يحتاج إلى مزيد من البحث. بالنظر إلى خطورة المشكلة، من الضروري جدًا فهم أن هناك حاجة ملحة لتوسيع الدراسات البحثية حول تدخلات فعالة من حيث التكلفة والكفاءة يمكن أن تمنع وتدير الاضطرابات النفسية. من خلال اعتبار محو الأمية الصحية وتدخلات التكنولوجيا المعتمدة على الدعم كممارسة اجتماعية بدلاً من طريقة لتغيير سلوك الأفراد، من الممكن إنشاء مجموعة واسعة من المبادرات المجتمعية التي تؤدي إلى تحسينات دائمة في الصحة والعدالة. لا يقلل هذا الأسلوب من أهمية المبادرات لتعزيز الوعي الصحي والدعم على مستويات اجتماعية وسياسية أعلى، ولكنه يدعو إلى اتخاذ هذه الإجراءات مع مراعاة كيفية تأثيرها على الأفراد، وأماكن العمل، والمجتمعات في سياق الحياة اليومية.
تضع هذه الحاجة المشاركة المجتمعية في مقدمة جميع البرامج المصممة لزيادة الدعم النفسي، خاصة عند استخدام التطبيقات المعتمدة على تقنية الذكاء الاصطناعي المتطورة.
شهدت القطاعات التجارية والرعاية الصحية تحولًا دراماتيكيًا نتيجة للتقدم الأخير في تقنية الذكاء الاصطناعي، خاصة مع ظهور المساعدين الافتراضيين الآليين أو البشر الذين يقدمون معلومات دقيقة بشكل ملحوظ استجابة لاستفسارات المستخدمين. يمكن أن تكون هذه الحلول التكنولوجية للذكاء الاصطناعي مفيدة بشكل خاص في تعزيز إدارة مرض السكري الذاتي بسبب بساطتها، وتكلفتها، وقيمتها المعلوماتية والتعليمية، وتفاعلها، وتوافر الدعم على مدار الساعة. أدت التقدمات الأخيرة في التعلم العميق ومعالجة اللغة الطبيعية إلى إنشاء نماذج لغوية كبيرة مثل ChatGPT. تم استخدام هذه النماذج على نطاق واسع لمجموعة متنوعة من المهام، مثل إنشاء النصوص، والترجمة اللغوية، والإجابة على الأسئلة.
وفقًا للأبحاث،
يتفوق ChatGPT على النماذج السابقة من حيث الدقة والكفاءة عند الرد على مجموعة متنوعة من الاستفسارات. بالإضافة إلى ذلك، أظهر ChatGPT القدرة على إنتاج نصوص متماسكة ومنظمة جيدًا، مما يجعله مفيدًا لمهام مثل إنشاء المحتوى والتلخيص.
كأداة لرعاية المرضى في قطاع الرعاية الصحية، أظهر ChatGPT تقديمًا واعدًا لرعاية ذات جودة.
يمكن لمستشاري الطب عن بُعد اتخاذ قرارات أكثر استنارة وتقديم رعاية أفضل للمرضى بمساعدة قدرة ChatGPT على تقديم معلومات سريعة ودقيقة
ويمكن أن يساعد في نشر المعلومات العامة المتعلقة بالصحة للجمهور.
أظهرت الدراسات
أن تطبيقات ChatGPT كانت قابلة للتطبيق بشكل كبير في قطاع الرعاية الصحية، لكنها أيضًا سلطت الضوء على الحاجة إلى مزيد من الدراسة لفهم آثار ChatGPT على صحة المرضى وعلم النفس. كانت تطبيقات الدردشة المعتمدة على الذكاء الاصطناعي تثبت فعاليتها بالفعل في إدارة الصحة النفسية للمرضى.
بالإضافة إلى ذلك، وجدت مراجعة حديثة لتطبيقات مثل هذه أن روبوتات الدردشة للصحة النفسية كانت سهلة الاستخدام، جذابة، سريعة الاستجابة، موثوقة، ويستمتع المستخدمون باستخدامها.
ومع ذلك، لم يتم تحديد أي أبحاث هامة حول استخدام ChatGPT فيما يتعلق بالصحة النفسية.
تستند عدة نظريات إلى تقييم فعالية ChatGPT في تقديم الدعم النفسي للمرضى. تشير نموذج قبول التكنولوجيا (TAM) إلى أن تصور المستخدم لسهولة استخدام التكنولوجيا وفائدتها يؤثر على اعتمادها. وعند تطبيقه هنا، فإنه يعني أن قبول المرضى واستخدامهم المستمر لـ ChatGPT للدعم النفسي قد يعتمد على مدى سهولة استخدامهم وفائدة التفاعلات.
علاوة على ذلك، يقترح نموذج احتمالية التوضيح (ELM) أن قوة الإقناع للرسائل تختلف بناءً على عمق المعالجة المعرفية. في سياق ChatGPT، يقترح النموذج أن فعالية دعمه للصحة النفسية قد تتعلق بجودة المحادثة ومدى تفاعلها مع المرضى على المستوى المعرفي.
أخيرًا، نظرية التعلم الاجتماعي المعرفي
يسلط (SCT) الضوء على أهمية التعلم بالملاحظة والكفاءة الذاتية في تغيير السلوك. في هذه الحالة، قد يستفيد المرضى من ملاحظة تجارب الآخرين الإيجابية مع ChatGPT وبناء الثقة تدريجياً في استخدامه لدعم الصحة النفسية. إن تقارب هذه النظريات يبرز أهمية تقييم سهولة استخدام ChatGPT، وعمق محادثاته، وتأثير التجارب الملاحظة على ثقة المرضى في استخدامه للمساعدة في الصحة النفسية. ومع ذلك، فإن معظم الدراسات
اعتمدت طرقًا كمية في تقييم فعالية ChatGPT، لكنها قللت من أهمية الطرق النوعية، التي يمكن أن تساعد في تعميق فهم آراء ومعتقدات المستخدمين في سياقات مختلفة.
يسلط (SCT) الضوء على أهمية التعلم بالملاحظة والكفاءة الذاتية في تغيير السلوك.
إجراء دراسة في هذا السياق يمكن أن يكون له فوائد كبيرة. أولاً، يمكن أن يكون الوصول إلى خدمات الصحة النفسية محدودًا بسبب حواجز مختلفة، بما في ذلك التكلفة، والوصمة، وتوافر المتخصصين في الصحة النفسية. وبالتالي، فإن استكشاف طرق مبتكرة وقابلة للوصول لتقديم الدعم النفسي، مثل استخدام ChatGPT، يمكن أن يساعد في سد هذه الفجوة وجعل خدمات الصحة النفسية متاحة على نطاق أوسع لأولئك الذين يحتاجون إليها. ثانيًا، مع استمرار تقدم التكنولوجيا، يتم استخدام الروبوتات المحادثة والمساعدين الافتراضيين بشكل متزايد في مجالات مختلفة، بما في ذلك الرعاية الصحية. ChatGPT، كنموذج لغوي متطور، لديه القدرة على إحداث ثورة في طريقة تقديم الدعم النفسي من خلال توفير واجهة محادثة يمكن أن تتفاعل مع المستخدمين بطريقة تشبه الإنسان. فهم فعالية ChatGPT في هذا السياق يمكن أن يساعد في إبلاغ تطوير وتنفيذ التدخلات النفسية المعتمدة على التكنولوجيا. ثالثًا، تعتبر الاعتبارات الأخلاقية ذات أهمية قصوى في مجال الصحة النفسية. إن استخدام ChatGPT لدعم الصحة النفسية يثير مخاوف أخلاقية تتعلق بالخصوصية، وأمان البيانات، والموافقة المستنيرة، والتأثير المحتمل على العلاقة العلاجية. يمكن أن يساعد التحقيق في الآثار الأخلاقية لاستخدام ChatGPT في هذا السياق في تحديد الضمانات والإرشادات لحماية رفاهية وحقوق المستخدمين. لذلك، تهدف هذه الدراسة إلى تقييم استخدام ChatGPT لدعم الصحة النفسية.
طرق
استخدمت هذه الدراسة تصميمًا شبه تجريبيًا
لأن تقنية ChatGPT جديدة وقليل من الأفراد على دراية بها.
إعداد الدراسة والمشاركون
تم أخذ عوامل متنوعة بعين الاعتبار لتقييم فعالية ChatGPT في تقديم الدعم النفسي، استنادًا إلى تحقيق أولي في الأدبيات. شمل المشاركون مرضى خارجيين (18 عامًا أو أكثر) يعانون من حالات صحية نفسية تشمل القلق والاكتئاب والاضطرابات السلوكية من مستشفى جامعة الملك فهد، المملكة العربية السعودية. خلال زيارات المرضى الخارجيين، طُلب من المرضى المشاركة في البحث بينما تم شرح الغرض والأهداف. تم توجيه المرضى، بموافقتهم، لاستخدام ChatGPT (الإصدار المجاني 3.5) في المنزل لمدة أسبوعين لطلب الدعم من ChatGPT لإدارة حالتهم لمدة لا تقل عن 15 دقيقة يوميًا. كان المشاركون أحرارًا في الاستفسار عن أي معلومات تتعلق بالصحة النفسية من خلال طرح أي استفسار أو ممارسات إدارة ذاتية، أو تفاعل ودي. طُلب من المشاركين المشاركة في مقابلات شبه منظمة في مستشفى الجامعة بعد تجربة استمرت أسبوعين. تُعرف المقابلة شبه المنظمة بأنها محادثة بين شخصين على الأقل حول موضوع ذي اهتمام مشترك يشجع أيضًا على الاختلاف في التفسير وتبادل وجهات النظر.
المقابلات شبه المنظمة هي صيغة يمكن للباحثين أو المحاورين اختيارها لأنها تمنحهم الخيار لوضع الأسئلة مسبقًا وإضافة المزيد من الأسئلة ذات الصلة لاحقًا في عملية المقابلة.
الاختيار والعينة
نظرًا لأن الدراسة تطلبت من المشاركين استخدام ChatGPT لفترة من الوقت، كان من الضروري أن يستخدم الباحثون عينة متاحة بسهولة. وبالتالي، تم استخدام تقنيات العينة الغرضية والعينة الملائمة في هذه الدراسة، كما هو معتاد في الأبحاث المماثلة.
تم استخدام العينة الغرضية لاختيار المشاركين بناءً على خصائصهم ومعرفتهم وتجاربهم مثل “التأثر بمشاكل الصحة النفسية” و”الوعي باستخدام ChatGPT”؛ وتم استخدام العينة الملائمة لتجنيد الأفراد الذين يمكن الوصول إليهم بسهولة، أي من مستشفى الجامعة. عندما تم سؤال حوالي 42 مريضًا بالغًا في البداية إذا كانوا مهتمين بالمشاركة في الدراسة، استجاب 35 بشكل إيجابي. فقط 24 من بين 38 مريضًا كانوا على دراية بـ ChatGPT ووظيفته. وبالتالي، تم اختيار 24 مريضًا للمشاركة في الدراسة. قبل المشاركة في المقابلة، تم إجراء تقييم شامل للمرضى.
تم إبلاغ المشاركين بأهداف الدراسة ومنحهم الفرصة لتقديم موافقة مستنيرة خلال زيارتهم الخارجية. بعد الموافقة، استخدم المرضى ChatGPT في المنزل لمدة أسبوعين لطلب الدعم النفسي بطريقتهم الخاصة. كان مطلوبًا من المشاركين التفاعل مع ChatGPT3 لمدة لا تقل عن 15 دقيقة يوميًا لمدة 14 يومًا. تم اعتبار عشرين إلى ثلاثين مقابلة حجم عينة مناسبًا للتحقيقات النوعية، خاصة تلك التي تستخدم المقابلات كطريقة لجمع البيانات. في هذه الدراسة النوعية شبه التجريبية، تم اعتبار 24 مريضًا خارجيًا يعانون من حالات صحية نفسية مختلفة لجمع البيانات.
تم إبلاغ المشاركين بأهداف الدراسة ومنحهم الفرصة لتقديم موافقة مستنيرة خلال زيارتهم الخارجية. بعد الموافقة، استخدم المرضى ChatGPT في المنزل لمدة أسبوعين لطلب الدعم النفسي بطريقتهم الخاصة. كان مطلوبًا من المشاركين التفاعل مع ChatGPT3 لمدة لا تقل عن 15 دقيقة يوميًا لمدة 14 يومًا. تم اعتبار عشرين إلى ثلاثين مقابلة حجم عينة مناسبًا للتحقيقات النوعية، خاصة تلك التي تستخدم المقابلات كطريقة لجمع البيانات.
تصميم الاستبيان
يمكن إجراء المقابلات شبه المنظمة بطرق متنوعة. من المهم أن نلاحظ أنه، على عكس المقابلات المنظمة، لا تبدأ هذه الأنواع من المقابلات بقائمة محددة مسبقًا من الأسئلة؛ بل يقوم الباحثون بتطوير عدد قليل من أسئلة المقابلة الأولية. استنادًا إلى ردود المشاركين في المقابلة، من الممكن إدخال أسئلة جديدة أو توسيع الأسئلة الموجودة.
نتيجة لذلك، صمم المؤلفون استبيان مقابلة يحتوي على أربعة استفسارات ديموغرافية تتعلق بالجنس والعمر والتعليم وحالة العمل. بالإضافة إلى ذلك، هناك عشرة أسئلة تتعلق بتأثير ChatGPT على تصورات المشاركين لـ ChatGPT في تقديم الدعم النفسي، بناءً على استخدامهم. الأسئلة موجودة في الملحق أ. ثم تم ترجمة أسئلة المقابلة من الإنجليزية إلى العربية بواسطة مترجم مؤهل.
قام أستاذان من قسم الصحة الإلكترونية في جامعة الإمام عبد الرحمن بن فهد بتوثيق الاستبيان المترجم. تم اقتراح بعض التعديلات النحوية، وتم مراجعة النسخة العربية لتضمينها.
جمع البيانات
تمت المقابلات شبه المنظمة التي جرت في مستشفى الجامعة باللغة العربية. تم تسجيل المقابلات صوتياً. في المتوسط، استمرت كل مقابلة حوالي 54 دقيقة، حيث تراوحت بين 50 و60 دقيقة. وافق المشاركون على تسجيل مقابلاتهم.
تحليل البيانات
تم تحويل المقابلات المسجلة إلى نصوص مقابلات (مستندات نصية) باستخدام برنامج NVivo. ثم تم ترجمة نصوص المقابلات العربية إلى الإنجليزية لتحسين الفحص. تم تحليل بيانات المقابلات باستخدام التحليل الموضوعي، وهو نهج شائع يستخدم في الدراسات النوعية.
في البداية، تم اكتشاف 162 رمزًا مميزًا يبرز معلومات محددة من نصوص المقابلات. ثم تم تصنيف الرموز إلى اثني عشر موضوعًا بناءً على أوجه التشابه الخاصة بها، مما يعكس كل من التأثيرات السلبية (أربعة مواضيع تشمل الاعتبارات الأخلاقية والقانونية، الدقة والموثوقية، القدرات التقييمية المحدودة، والاعتبارات الثقافية واللغوية) والتأثيرات الإيجابية (ثمانية مواضيع تشمل التعليم النفسي، الدعم العاطفي، تحديد الأهداف والتحفيز، معلومات الإحالة والموارد، التقييم الذاتي والمراقبة، تقنيات العلاج السلوكي المعرفي، التدخل في الأزمات، والتمارين النفسية) على دعم الصحة النفسية، والتي تم استخدامها بعد ذلك لتحليل النتائج.
عوامل متعلقة بالأخلاقيات
وافقت لجنة أخلاقيات البحث في جامعة عبدالرحمن بن فيصل على الدراسة. تتوافق هذه الدراسة مع إعلان هلسنكي. تم إجراء عملية جمع البيانات وتحليلها وفقًا لجميع المعايير الأخلاقية المعمول بها. تم الكشف عن غرض التحقيق وحقوق المشاركين القانونية بالكامل. تم الحصول على موافقة مستنيرة من جميع المشاركين. تم إعطاء كل مشارك اسمًا وهميًا لحماية خصوصية المشاركين. قبل بدء المقابلات، أعطى جميع المشاركين موافقتهم المستنيرة، وكانت المشاركة طوعية تمامًا. شملت موافقة المشاركين المستنيرة نشر الردود المجهولة.
النتائج
خصائص المشاركين
شارك أربعة وعشرون مريضًا في المقابلات. كانت ثمانية مشاركات من الإناث وستة عشر مشاركًا من الذكور. يتم تقديم المعلومات الديموغرافية للمشاركين في الجدول S1 والملحق B.
ChatGPT لتقديم دعم الصحة النفسية
أدى تحليل بيانات المقابلات إلى اثني عشر موضوعًا، يمكن ربطها باستخدام ChatGPT لدعم الصحة النفسية. يتم تقديمها في الأقسام التالية.
التعليم النفسي
اعترف جميع المشاركين بأهمية ChatGPT في التعليم، خاصة التعلم مدى الحياة حول اضطرابات الصحة النفسية، والتي قد لا يشرحها الأطباء النفسيون وغيرهم. أكثر من
من المشاركين (15 من أصل 24 مشاركًا) اعتقدوا أن ChatGPT يمكن أن يثقف المرضى حول حالات الصحة النفسية، وأسبابها، وأعراضها، وخيارات العلاج لتحسين معرفتهم بالصحة النفسية. قال ما يقرب من
من المشاركين إن ChatGPT ساعدهم في إدارة أعراض صحتهم النفسية من خلال الاسترخاء، واليقظة، وتقليل التوتر، ومهارات التكيف المستندة إلى الأدلة التي يمكنهم استخدامها يوميًا. تدعم البيانات التالية النتائج.
كنت أعاني من متلازمة الخوف وأفكار سلبية لفترة من الوقت. على الرغم من أنني أتناول بعض الأدوية وأمارس اليوغا، لم أستطع تحسين حالتي تمامًا بسبب نقص الوعي أو المعلومات الكاملة عن حالتي. تعلمت عن حالتي من خلال سؤال ChatGPT، وقد أعطاني صورة واضحة عن نفسي، وكيف يمكنني تحسين حالتي (المشارك 4)
كان ChatGPT داعمًا جدًا، وسهل الاستخدام، وسريع في الردود. تعلمت الكثير عن حالات الصحة النفسية، وطرق التحسين، والأبحاث والتحديثات الحالية في هذا المجال. مثل استخدام تقنيات الذكاء الاصطناعي مثل الدردشة لتقديم الدعم النفسي (المشارك 21)
الدعم العاطفي
أكثر من
من المشاركين (13 من أصل 24 مشاركًا) أشاروا إلى الدعم العاطفي من ChatGPT. اعتقد المشاركون أن ChatGPT يمكن أن يقدم ردودًا تعاطفية وتأكيدًا للأفراد الذين قد يواجهون صعوبة في مشاعرهم؛ ويمكنه أيضًا توفير مساحة غير حكمية للأفراد للتعبير عن مشاعرهم واهتماماتهم، وتقديم ردود رحيمة لمساعدة المرضى على الشعور بأنهم مسموعون ومفهومون. تم إدراك هذه النتائج من البيانات الداعمة التالية.
قلت للتطبيق إنني حزين، وكان رده أنه آسف لسماع أنني حزين، وقدم بعض الاقتراحات لتحسين مزاجي… هذه الأشياء جعلتني أشعر بسعادة أكبر لرؤية أن آلة تهتم بي، وكانت تبذل قصارى جهدها لجعلي أشعر بالسعادة، كما قالت نكتة… (المشارك 6)
قدم التطبيق نكات مضحكة، مما جعل مزاجي أفضل… على سبيل المثال، لماذا يمكن للدراجة أن تقف بمفردها؟ لأنها متعبة جدًا… والعديد من النكات الأخرى مثل هذه (المشارك 17)
كنت أشعر بالاسترخاء والسلام حقًا، حيث كنت أستطيع التعبير عن مشاعري بحرية لآلة، دون الكشف عن هويتي (المشارك 12)
تحديد الأهداف والتحفيز
لاحظ عدد قليل من المشاركين (خمسة من أصل 24 مشاركًا) أن ChatGPT يمكن أن يساعدهم في تحديد الأهداف وتطوير خطة لتحقيقها. علاوة على ذلك، اعتقد ما يقرب من
من المشاركين (11 من أصل 24 مشاركًا) أنه قدم دعمًا تحفيزيًا من خلال تشجيعهم على اتخاذ خطوات إيجابية نحو تحسين صحتهم النفسية، مثل تحديد أهداف صغيرة قابلة للتحقيق وتتبع التقدم بمرور الوقت. يمكن استنتاج هذه النتائج من البيانات الداعمة التالية.
من خلال أخذ إشارة من طبيبي، الذي اقترح علي تحديد الأهداف وتحقيقها، سألت التطبيق إذا كان يمكنه المساعدة في هذه العملية. على الرغم من أنه لم يكن قادرًا على تخزين ومراقبة البيانات، إلا أنه اقترح العديد من التطبيقات المعتمدة على الذكاء الاصطناعي لأغراض تحديد الأهداف والمراقبة. (المشارك 19)
طلبت منه مساعدتي في الإقلاع عن التدخين. كان يقدم العديد من الرسائل التحفيزية وآثار الإقلاع عن التدخين الجيدة… كانت تجربة مختلفة طلب التحفيز من شخص غير معروف، لكنها ساعدتني في أن أكون متحمسًا، حيث أصبحت على دراية بالعديد من المخاطر، التي لم أكن أعرفها سابقًا (المشارك 23)
معلومات الإحالة والموارد
وجد عدد قليل من المشاركين (ستة من أصل 24 مشاركًا) أن ChatGPT يمكن أن يوفر معلومات حول موارد الصحة النفسية مثل الكتب والمجلات والدوريات؛ ويقترح طرقًا للعثور على الموارد الطبية مثل المعالجين، والمستشارين، ومجموعات الدعم، وخطوط المساعدة. يمكنه أيضًا مساعدة المرضى في العثور على خدمات الصحة النفسية المحلية وتوفير معلومات الاتصال للمنظمات أو المحترفين المعنيين. يمكن استنتاج هذه النتائج من البيانات التالية.
ساعدني في العثور على بعض الأطباء العظام الجيدين في الرياض. اقترح العديد من التطبيقات مثل Labayh، التي استخدمتها للعثور على الأطباء العظام الجيدين في منطقتي، كما وجدت المراجعات لهم. ساعدني هذا في اتخاذ القرار بشأن اختيار الطبيب. (المشارك 1)
قدم العديد من أسماء الكتب والدوريات مثل كتاب علاج الاكتئاب: البرنامج المكون من 6 خطوات للتغلب على الاكتئاب بدون أدوية من تأليف ستيفن، والذي ساعدني حقًا في إدارة حالتي (المشارك 15)
التقييم الذاتي والمراقبة
وجدت الغالبية العظمى من المشاركين (18 من أصل 24 مشاركًا) أن ChatGPT يمكن أن يسهل التقييم الذاتي ومراقبة أعراض الصحة النفسية بمرور الوقت. من خلال البحث عن المعلومات ذات الصلة، تمكن المشاركون من تقييم ومراقبة حالاتهم. علاوة على ذلك، لاحظوا أن ChatGPT قدم إرشادات حول ممارسات الرعاية الذاتية التي تعزز رفاههم النفسي، مثل الحفاظ على نمط حياة صحي، وممارسة التمارين الرياضية بانتظام، وممارسة عادات نوم جيدة، والانخراط في أنشطة تجلب الفرح والإشباع. يمكن استنتاج هذه النتائج من البيانات الداعمة التالية.
اقترح العديد من الأساليب مثل الحصول على قسط كافٍ من النوم، وتناول نظام غذائي متوازن، وممارسة التمارين الرياضية بانتظام، والعديد من الأمور الأخرى… والأهم من ذلك أنه شرح لي كيف يمكن أن تساعدني هذه التغييرات في نمط الحياة في الخروج من الاكتئاب… مثلما قال إن ممارسة التمارين الرياضية بانتظام ستطلق هرمون السعادة، الإندورفين، الذي يمكن أن يقلل من التوتر ويحسن المزاج. (المشارك 11)
بعد معرفتي بأعراض القلق بالتفصيل، كنت أكثر وعيًا بحالتي وعلاجي. كما تمكنت من تتبع تقدمي، وتبني ممارسات الرعاية الذاتية بعد تلقي الاقتراحات من التطبيق (المشارك 18)
تقنيات العلاج السلوكي المعرفي (CBT)
أبدى عدد قليل من المشاركين (ثلاثة من 24 شخصًا تمت مقابلتهم) رأيهم بأن ChatGPT يمكن أن يساعد المرضى في ممارسة إعادة الهيكلة المعرفية، وهي تقنية شائعة تستخدم في العلاج السلوكي المعرفي، والتي تتضمن تحديد وتحدي أنماط التفكير السلبية واستبدالها بأفكار أكثر توازنًا وعقلانية. لدعم النتائج، صرح الشخص الذي تمت مقابلته 10 بأن
من خلال طلب المساعدة من التطبيق، تمكنت من تحديد أفكاري السلبية بشكل أكثر فعالية وبدأت في استبدالها بأفكار إيجابية. كنت في وضع أفضل من قبل في القيام بهذه العملية بسبب الدعم من التطبيق
صرح شخص آخر تمت مقابلته 8 بأن
كنت أحيانًا مرتبكًا في تحديد الأفكار، لأنه على الرغم من أن الفكرة سلبية، شعرت ببعض الزاوية الإيجابية لها… لكن من خلال أخذ الإشارات من التطبيق، تمكنت من تأطير أفكاري بشكل أفضل
كنت أحيانًا مرتبكًا في تحديد الأفكار، لأنه على الرغم من أن الفكرة سلبية، شعرت ببعض الزاوية الإيجابية لها… لكن من خلال أخذ الإشارات من التطبيق، تمكنت من تأطير أفكاري بشكل أفضل
التدخل في الأزمات
أبدى عدد قليل من المشاركين (ثمانية من 24 شخصًا تمت مقابلتهم) أن ChatGPT يمكن أن يوفر دعمًا للتدخل في الأزمات للمرضى الذين قد يعانون من ضيق حاد أو يحتاجون إلى مساعدة فورية. يمكنه أيضًا تقديم معلومات حول خطوط الطوارئ، وموارد الوقاية من الانتحار، وإرشاد المرضى حول الخطوات التي يجب اتخاذها في حالة أزمة. في هذا السياق، صرح الشخص الذي تمت مقابلته 5 بأن
حاولت طلب أرقام خطوط المساعدة الطارئة… مثل أنني سألت عن الرقم الطارئ لطلب المساعدة من أفكار الانتحارالأفكار. لقدقدمت الرقم 937… الهيئة السعودية للهلال الأحمر (SRCA)، المسؤولة عن تقديم خدمات الطوارئ الطبية والتدخل في الأزمات في المملكة العربية السعودية، بما في ذلك الوقاية من الانتحار.
بينما تلقيت الدعم من التطبيق لإدارة حالتي، سألت أيضًا عن جميع أرقام الدعم الطارئة ودوّنتها، حيث لم أكن على علم بها… هذا سيساعدني في حالة الطوارئ (الشخص الذي تمت مقابلته 7)
تمارين نفسية
حوالي 50% من المشاركين (11 من 24 شخصًا تمت مقابلتهم) أن ChatGPT يمكن أن يسهل مجموعة متنوعة من التمارين النفسية، مثل التصوير الموجه، ومحفزات الكتابة، وتمارين تحدي الأفكار، لمساعدة المرضى على استكشاف مشاعرهم، واكتساب رؤى، وتطوير مهارات التكيف. يمكن استنتاج هذه النتيجة من البيانات الداعمة التالية.
ساعدني التطبيق في اعتماد ممارسات فعالة لتغيير مزاجي. مثل أنه اقترح عليّ كتابة ثلاث أشياء إيجابية حدثت في يوم واحد، وسألني لماذا شعرت أنها إيجابية، وطلب مني تقدير اللحظات الإيجابية… بهذه الطريقة بدأت أفكر بشكل أكثر إيجابية وتجنبت الأفكار السلبية (الشخص الذي تمت مقابلته 22)
لقد أثر نهجه في تحفيز نفسي واكتساب السيطرة الذاتيةعلي. لقداقترح كتابة الأشياء أو الأفكار السلبية التي تزعجني… وسألني لماذا تزعجني، وكيف يمكنني اكتساب السيطرة عليها، وتحديد أهداف لاكتساب السيطرة… بهذه الطريقة، بدأت في تغيير سلوكي. (الشخص الذي تمت مقابلته 13)
كما كشفت النتائج عن بعض التحديات المرتبطة بـ ChatGPT في تقديم الدعم النفسي، والتي تضمنت ما يلي.
الاعتبارات الأخلاقية والقانونية
هناك اعتبارات أخلاقية وقانونية تحيط باستخدام الذكاء الاصطناعي في دعم الصحة النفسية. تشمل القضايا مثل خصوصية البيانات، والموافقة، والسرية، والاحتمالية لوجود تحيزات في خوارزميات الذكاء الاصطناعي بعض التحديات التي أثارها معظم المشاركين. يمكن استنتاج ذلك من البيانات التالية.
كنت قلقًا، إذا كانت تفاصيل الشخصية أو استفساراتي المتعلقة بالصحة التي أطرحها على ChatGPT قد تتسرب أو تُستخدم بشكل غير صحيح. بعض المعلومات قد تكون شخصية، وفي هذه الأيام أسمع الكثير عن سرقة البيانات الشخصية عبر الإنترنت (الشخص الذي تمت مقابلته 2)
لست على علم بمن يجب أن أذهب إليه، إذا أثبتت اقتراحات ChatGPT أنها فاشلة أو تشكل أي خطر… لست متأكدًا مما إذا كانت منظمة من قبل الحكومة أم لا، حيث تستمر في القول إنها نموذج لغوي وتستمر في التعلم من مجموعات بيانات جديدة (الشخص الذي تمت مقابلته 16)
الدقة والموثوقية
لاحظ حوالي
(20 من 24 شخصًا تمت مقابلتهم) مجموعة متنوعة من القضايا المتعلقة بالدقة والموثوقية مع ChatGPT. كانت معظم المخاوف تتعلق بموثوقية المعلومات التي يقدمها. تدعم البيانات التالية هذه النتيجة.
عندما استفسرت عن مدى موثوقية معلوماته، ذكر أنه قد تم تدريبه على معلومات قديمة أو غير مكتملة؛ قد تكون هناك تحيزات في بيانات التدريب؛ عدم قدرته على التحقق من الحقائق؛ وعدم القدرة على تبني الاعتبارات الأخلاقية. والعديدالمزيد. إنهيُربكني. على الرغم من أن المعلومات التي قدمها كانت صحيحة في الغالب، إلا أنه بنفسه يذكر أن بياناته قد تكون غير دقيقة أو غير موثوقة (الشخص الذي تمت مقابلته 3)
في بعض الحالات، لم يقدم أي بيانات. قال إنه مجرد نموذج لغوي ولا يمكنه وصف أي أدوية للقلق. ولكن عندما قمت بتعديل السؤال وسألت عن الأدوية الشائعة المستخدمة للقلق، قدم قائمة بالأدوية مثل بروزاك، وزولوفت، وليكسابرو. لكن هل هي موثوقة وآمنة؟ لست متأكدًا. (الشخص الذي تمت مقابلته 20)
قدرات التقييم المحدودة
الصحة النفسية هي حالة تتطلب تقييمًا دقيقًا. ومع ذلك، ذكر معظم المشاركين أن التطبيق يفتقر إلى مهارات التقييم. علاوة على ذلك، بسبب ردوده المتحيزة، هناك مخاوف تتعلق بالسلامة قد تظهر عند استخدامه لدعم الصحة النفسية. علاوة على ذلك، يفتقر إلى الإحساس البشري باللمس والعاطفة، والتي تعتبر ضرورية جدًا في علاج حالات الصحة النفسية. يمكن استنتاج هذه النتائج من البيانات التالية.
عندما سألت التطبيق لتشخيصي وتقييمي بشأن قلقي، ذكر أنه ليس لديه القدرة على تشخيص أو تقييم حالة الصحة النفسية للأفراد (الشخص الذي تمت مقابلته 24)
كان يقدم بعض أسماء الأدوية لحالات مختلفة بشكل علني. هذه قضية كبيرة، حيث قد يستخدم بعض الأشخاص المعلومات لأغراض غير أخلاقية (الشخص الذي تمت مقابلته 11)
واحدة من أهم المخاوف التي لاحظتها كانت نقص التفاعل الشخصي مع البشر. على الرغم من أنني حصلت على الخصوصية وإحساس الاستقلال في مشاركة مشاعري بحرية مع ChatGPT، إلا أن حالته الخالية من العواطف، لم أكن متأكدًا مما إذا كان قد فهم مشاكلي أم لا، وكان ذلك محبطًا قليلاً بالنسبة لي للتفاعل. (الشخص الذي تمت مقابلته 14)
الاعتبارات الثقافية واللغوية
أبدى عدد قليل من المشاركين (أربعة من 24 شخصًا تمت مقابلتهم) رأيهم بأن ChatGPT قد لا يكون مجهزًا تمامًا لفهم ومعالجة التنوع الثقافي واللغوي للمرضى. قد لا يكون قادرًا على التكيف تمامًا مع المعتقدات الثقافية والقيم وتفضيلات اللغة للمرضى، مما يمكن أن يؤثر على فعالية الدعم المقدم. يمكن استنتاج هذه النتائج من البيانات التالية.
كان يفهم العربية، وهذا شيء جيد؛ لكنه لم يكن على علم ببعض الكلمات الثقافية والأشياء التي تتجذر تقليديًا في الثقافة العربية، مما أثر على تفاعلي مع ChatGPT (الشخص الذي تمت مقابلته 11)
إذا شاركت مشاكلي مثل خوفي من شيء متجذر ثقافيًا، قد يفهم طبيب شخصي مشكلتي. جربت بعض الحالات مع ChatGPT، لكنه لم يكن قادرًا على التعرف على المشكلة (الشخص الذي تمت مقابلته 6)
المناقشة
أدت التحليل النوعي لبيانات المقابلة إلى اثني عشر موضوعًا تعكس تأثير ChatGPT كأداة على دعم الصحة النفسية. من بين الاثني عشر، تم تحديد ثمانية مواضيع على أنها مرتبطة إيجابيًا وأربعة مواضيع مرتبطة سلبًا بـ ChatGPT لدعم الصحة النفسية.
كان أحد التأثيرات الكبيرة لـ ChatGPT لدعم الصحة النفسية ملحوظًا فيما يتعلق بالتثقيف النفسي. الدراسات
قد لاحظت أن ضعف معرفة الصحة هو أحد التحديات الحرجة التي تواجه جميع الدول على مستوى العالم، مما يؤدي إلى زيادة تكاليف الرعاية الصحية وسوء إدارة الصحة العامة. عكست النتائج في هذه الدراسة أن ChatGPT يمكن أن يكون أداة تدخل فعالة للتثقيف النفسي، مما يمكن أن يحسن بشكل كبير الصحة النفسية للأفراد، مما يجعلهم فعالين في اتخاذ قرارات مستنيرة.
علاوة على ذلك، في بعض السياقات، لوحظ أن ChatGPT كان يقدم الدعم العاطفي للمشاركين. وهذا يشير إلى أهمية ChatGPT في تقديم الدعم النفسي، حيث يلعب الدعم العاطفي دورًا مهمًا في العلاج.
بالإضافة إلى ذلك، تم تحديد دور ChatGPT في التحفيز وتحديد الأهداف، ومصدر المعلومات للإحالة والموارد في دراسة حديثة.
على الرغم من أن ChatGPT تم التعرف عليه كأداة فعالة للتقييم الذاتي والمراقبة في بعض الدراسات،
تم تحديد قضايا مثل التقييم غير الكافي وسوء استخدام المعلومات العاطفية في دراسات أخرى.
دراسات مماثلة تعتمد على تطبيقات الذكاء الاصطناعي لدعم الصحة النفسية
حددت أيضًا مشكلات تتعلق بالدعم العاطفي والتشخيص والتقييم في تقديم الدعم للصحة النفسية.
ومع ذلك، يمكن أن يكون لدوره في مجالات أخرى مثل استراتيجيات العلاج والدعم تأثير أكبر في تقديم الدعم للصحة النفسية. على سبيل المثال، يمكن أن يساعد دعم إعادة هيكلة التفكير من ChatGPT المرضى في تطوير أنماط تفكير أكثر صحة وتحسين رفاههم النفسي بشكل عام. بالإضافة إلى ذلك، يمكن أن يقدم ChatGPT دعمًا نفسيًا اجتماعيًا للمرضى من خلال توفير مساحة رحيمة وغير حكمية لهم للتحدث عن مخاوفهم ومخاوفهم وتحدياتهم.
ومع ذلك، من المهم أن نتذكر أنه بينما يمكن لـ ChatGPT تقديم دعم قيم، إلا أنه ليس بديلاً عن الرعاية الصحية النفسية المهنية. يُوصى دائمًا للمرضى بالبحث عن نصيحة طبية مؤهلة وعلاج من محترفين مرخصين في الصحة النفسية لتلبية احتياجاتهم المحددة.
بينما يعد ChatGPT نموذجًا قويًا للغة، قد لا يقدم دائمًا معلومات دقيقة أو موثوقة. من المهم التأكد من أن المعلومات المقدمة من ChatGPT تستند إلى أدلة ومحدثة لتجنب المعلومات المضللة والأذى المحتمل للمرضى. ومع ذلك، من المهم أن نتذكر أن التطبيق تم تدريبه على مجموعات بيانات مختلفة، والتي قد تكون جديدة أو قديمة. لذلك، هناك حاجة لدمج وظيفة التحقق من الحقائق لزيادة دقة وموثوقية التطبيق في تقديم الدعم للصحة النفسية.
من المثير للاهتمام أن نلاحظ أنه على الرغم من أن العديد من المشاركين ذكروا أن ChatGPT يقدم معلومات جيدة؛ إلا أنهم كانوا قلقين بشأن دقة وموثوقية المعلومات. قد يكون لدى ChatGPT قيود في تقييم حالات الصحة النفسية للمرضى بدقة، كما هو مذكور في.
علاوة على ذلك، قد لا يكون قادرًا على فهم المشاعر المعقدة بالكامل، أو تفسير الإشارات غير اللفظية، أو تقييم شدة أعراض الصحة النفسية بدقة، مما يمكن أن يؤثر على جودة الدعم المقدم.
قد تكون هناك مخاوف تتعلق بالسلامة في تقديم الدعم للصحة النفسية من خلال أداة ذكاء اصطناعي. على سبيل المثال، في حالات الأزمات أو الطوارئ، قد لا يكون ChatGPT قادرًا على تقديم تدخلات مناسبة وفي الوقت المناسب، وقد يحتاج المرضى إلى تدخل بشري فوري. كأداة مدعومة بالذكاء الاصطناعي، يفتقر ChatGPT إلى اللمسة الإنسانية والاتصال العاطفي الذي يمكن أن يكون مهمًا في دعم الصحة النفسية.
بناء العلاقة، وإقامة الثقة، وتقديم التعاطف، وهي أمور حاسمة في العلاقات العلاجية، قد تكون تحديًا لنموذج ذكاء اصطناعي مثل ChatGPT. ومع ذلك، فقد حددت الدراسات الحديثة
فوائد محتملة لاستخدام ChatGPT في الصحة النفسية، مما يشير إليه كأداة تدخل موثوقة.
بينما تعكس النتائج في هذه الدراسة جوانب أكثر إيجابية لـ ChatGPT كأداة لدعم الصحة النفسية، خاصة في التعليم والوصول إلى المعلومات الصحية العامة؛ هناك بعض التحديات المرتبطة بها، وللتعامل مع هذه، قد يتطلب التطبيق تحسينات إضافية. بالإضافة إلى ذلك، هناك حاجة إلى مزيد من الدراسات للحصول على فهم واضح لتأثيرات استخدام ChatGPT لدعم الصحة النفسية.
تحتوي النتائج في هذه الدراسة على تداعيات عملية ونظرية. أولاً، تساهم النتائج من هذه الدراسة في سد الفجوات البحثية حول تطبيق ChatGPT في الرعاية الصحية. ثانيًا، يمكن استخدام النتائج في هذه الدراسة من قبل صانعي السياسات، ومصممي الأنظمة، والمؤسسات البحثية لتطوير استراتيجيات لتطبيق ChatGPT في تقديم الدعم للصحة النفسية، مما يزيد من الوصول إلى خدمات الرعاية الصحية، ويقلل من تكاليف الرعاية الصحية. كما أن الدراسة لها بعض القيود. استخدمت الدراسة عينة صغيرة لجمع البيانات، ومن موقع معين فقط. ومع ذلك، قد تختلف الوعي والمهارات في استخدام تطبيقات الذكاء الاصطناعي بين الأفراد. لذلك، يجب تعميم النتائج في هذه الدراسة بحذر.
الخاتمة
الغرض من هذه الدراسة هو تقييم استخدام ChatGPT لدعم الصحة النفسية، والذي تم تحقيقه من خلال نهج نوعي. كما لوحظ من النتائج في هذه الدراسة، على الرغم من التحديات المختلفة، فإن الأدوات المدعومة بالذكاء الاصطناعي مثل ChatGPT لديها القدرة على تقديم دعم نفسي قيم للمرضى عند استخدامها بشكل مناسب وكجزء من خطة شاملة للرعاية الصحية النفسية. لذلك، من المهم النظر بعناية في هذه التحديات وتطوير استراتيجيات مناسبة للتخفيف منها لضمان الاستخدام الآمن والفعال للتطبيقات المعتمدة على الذكاء الاصطناعي مثل ChatGPT في دعم الصحة النفسية. علاوة على ذلك، فإن مجال تطبيق ChatGPT في الرعاية الصحية يحتاج إلى مزيد من البحث ويتطلب اهتمامًا فوريًا من الباحثين لتوسيع نطاق البحث المرتبط بـ ChatGPT، حيث أن لديه إمكانات كبيرة في تحسين خدمات الرعاية الصحية.
الإفصاح
يبلغ المؤلف عن عدم وجود تضارب في المصالح في هذا العمل.
References
- Walsh R. Lifestyle and mental health. Am Psychologist. 2011;66(7):579-592. doi:10.1037/a0021769
- Orpana H, Vachon J, Dykxhoorn J, McRae L, Jayaraman G. Monitoring positive mental health and its determinants in Canada: the development of the Positive Mental Health Surveillance Indicator Framework. Health Promot Chronic Dis Prev Can. 2016;36(1):1-10. doi:10.24095/hpcdp.36.1.01
- Centers for Disease Control and Prevention. Heart Disease and Mental Health Disorders; 2023. Available from: cdc.gov/heartdisease/mentalhealth. htm. Accessed January 26, 2024.
- Salleh MR. Life event, stress and illness. Malays J Med Sci. 2008;15(4):9-18.
- Clapp M, Aurora N, Herrera L, Bhatia M, Wilen E, Wakefield S. Gut microbiota’s effect on mental health: the gut-brain axis. Clin Pract. 2017;7 (4):987. doi:10.4081/cp. 2017.987
- Naughton MJ, Weaver KE. Physical and mental health among cancer survivors: considerations for long-term care and quality of life.
. 2014;75(4):283-286. doi:10.18043/ncm.75.4.283 - Romeo RD. The impact of stress on the structure of the Adolescent Brain: implications for Adolescent Mental Health. Brain Res. 2017;1654:185-191. doi:10.1016/j.brainres.2016.03.021
- Ollinheimo A, Hakkarainen K. Critical thinking as cooperation and its relation to Mental Health and Social Welfare. New Ideas Psychol. 2023;68:100988. doi:10.1016/j.newideapsych.2022.100988
- Boardman J. Social exclusion and mental health – how people with mental health problems are disadvantaged: an overview. Ment Health Soc Incl. 2011;15(3):112-121. doi:10.1108/20428301111165690
- Heinz A, Zhao X, Liu S. Implications of the Association of Social Exclusion with Mental Health. JAMA Psychiatry. 2020;77(2):113-114. doi:10.1001/jamapsychiatry.2019.3009
- World Health Organization. Connecting mental health and human rights; 2023. Available from: https://www.who.int/europe/activities/connecting-mental-health-and-human-rights. Accessed January 26, 2024.
- World Health Organization. Mental health; 2023. Available from: https://www.who.int/health-topics/mental-health#tab=tab_1. Accessed January 26, 2024.
- Marissa W Mental health statistics 2023; 2023. Available from: https://www.singlecare.com/blog/news/mental-health-statistics/. Accessed January 26, 2024.
- Uludag K, Wang DM, Goodman C, Wang L, Zhang X. Prevalence, clinical correlates and risk factors associated with Tardive Dyskinesia in Chinese patients with schizophrenia. Asian J Psychiatry. 2021;66:102877. doi:10.1016/j.ajp.2021.102877
- World Health Organization. World Mental health Report; 2023. Available from: https://www.who.int/publications/i/item/9789240049338. Accessed January 26, 2024.
- Chesney E, Goodwin GM, Fazel S. Risks of all-cause and suicide mortality in mental disorders: a meta-review. World Psychiatry. 2014;13 (2):153-160. doi:10.1002/wps. 20128
- World Health Organization. Mental health atlas 2020; 2023. Available from: https://apps.who.int/iris/handle/10665/345946. Accessed January 26, 2024.
- World Health Organization. The world health report 2001. Mental health: new understanding, new hope. Geneva; 2023. Available from: https:// apps.who.int/iris/handle/10665/42390. Accessed January 26, 2024.
- World Health Organization. Health literacy development for the prevention and control of noncommunicable diseases; 2023. Available from: https://www.who.int/publications-detail-redirect/9789240055391. Accessed January 26, 2024.
- Aljanabi M, Ghazi M, Ali AH, Abed SA. ChatGpt: open Possibilities. Iraqi J Computer Sci Mathematics. 2023;4(1):62-64.
- Shen Y, Heacock L, Elias J, et al. CHATGPT and other large language models are double-edged swords. Radiology. 2023;307. doi:10.1148/ radiol. 230163
- Jiao W, Wang W, Huang H, Wang X, Tu Z. Is ChatGPT a Good Translator? A Preliminary Study. Computation Language. 2023. doi:10.48550/ arXiv. 2301.08745
- Gao CA, Howard FM, Markov NS, et al. Comparing scientific abstracts generated by CHATGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers. J Electonic. 2022.
- Aydın Ö, Karaarslan E. Is Chatgpt leading generative ai? What is beyond expectations? SSRN Electron J. 2023. doi:10.2139/ssrn. 4341500
- Primack D Here come the robot doctors; 2023. Available from: https://www.axios.com/2023/01/18/chatgpt-ai-health-care-doctors. Accessed January 26, 2024.
- Nov O, Singh N, Mann DM. Putting chatgpt’s medical advice to the (turing) test. SSRN Electronic Journal. 2023. doi:10.2139/ssrn.4413305
- Aljanabi M. ChatGPT: future Directions and Open possibilities. Mesopotamian j Cybersecurity. 2023;16-17. doi:10.58496/MJCS/2023/003
- Cascella M, Montomoli J, Bellini V, Bignami E. Evaluating the feasibility of CHATGPT in Healthcare: an analysis of multiple clinical and research scenarios. J Med Systems. 2023;47(1). doi:10.1007/s10916-023-01925-4
- Biswas SS. Role of chat GPT in public health. Ann. Biomed. Eng. 2023;51(5):868-869. doi:10.1007/s10439-023-03172-7
- Khan RA, Jawaid M, Khan AR, Sajjad M. CHATGPT – Reshaping Medical Education and clinical management. Pakistan J Med Sci. 2023;39(2). doi:10.12669/pjms.39.2.7653
- Goodman RS, Patrinely JR, Osterman T, Wheless L, Johnson DB. On the cusp: considering the impact of artificial intelligence language models in healthcare. Medicine. 2023;4(3):139-140. doi:10.1016/j.medj.2023.02.008
- Seth I, Rodwell A, Tso R, Valles J, Bulloch G, Seth N. A conversation with an open artificial intelligence platform on osteoarthritis of the Hip and treatment. J Orthopaedics Sports Med. 2023;05(01). doi:10.26502/josm.511500088
- Sng GG, Tung JY, Lim DY, Bee YM. Potential and pitfalls of CHATGPT and natural-language artificial intelligence models for diabetes education. Diabetes Care. 2023;46(5):e103-e105. doi:10.2337/dc23-0197
- Fingerprintfr success. The Best Mental Health Chatbots (& What They Can Do for You); 2023. Available from: https://www.fingerprintforsuccess. com/blog/mental-health-chatbot#:~:text=Woebot,conditions%20like%20depression%20and%20anxiety. Accessed January 26, 2024.
- Sweeney C, Potts C, Ennis E, et al. Can Chatbots help support a person’s mental health? Perceptions and views from mental healthcare professionals and experts. ACM Transactions Computing Healthcare. 2021;2(3):1-15. doi:10.1145/3453175
- Dosovitsky G, Pineda BS, Jacobson NC, Chang C, Escoredo M, Bunge EL. Artificial Intelligence Chatbot for Depression: descriptive Study of Usage. JMIR Form Res. 2020;4(11):e17065. doi:10.2196/17065
- Abd-Alrazaq AA, Alajlani M, Ali N, Denecke K, Bewick BM, Househ M. Perceptions and opinions of patients about Mental Health Chatbots: scoping review. J Med Internet Res. 2021;23(1):1. doi:10.2196/17828
- Bin-Nashwan SA, Sadallah M, Bouteraa M. Use of chatgpt in academia: academic integrity hangs in the balance. Technol Soc. 2023;75:102370. doi:10.1016/j.techsoc.2023.102370
- Shahsavar Y, Choudhury A. User Intentions to Use ChatGPT for Self-Diagnosis and Health-Related Purposes: cross-sectional Survey Study. JMIR Hum Factors. 2023;10:e47564. doi:10.2196/47564
- Ali O, Murray PA, Momin M, Al-Anzi FS. The knowledge and innovation challenges of CHATGPT: a scoping review. Technol Soc. 2023;75:102402. doi:10.1016/j.techsoc.2023.102402
- Paul J, Ueno A, Dennis C. chatgpt and consumers: benefits, Pitfalls and Future Research Agenda. Int J Consum Stud. 2023;47(4):1213-1225. doi:10.1111/ijcs. 12928
- Salah M, Alhalbusi H, Ismail MM, Abdelfattah F. Chatting with CHATGPT: decoding the mind of chatbot users and unveiling the intricate connections between user perception, trust and stereotype perception on self-esteem and psychological well-being. Current Psychology. 2023. doi:10.1007/s12144-023-04989-0
- Zhu G, Fan X, Hou F, et al. Embrace Opportunities and Face Challenges: using ChatGPT in Undergraduate Students’ Collaborative Interdisciplinary Learning. Computers Society. 2023. doi:10.48550/arXiv.2305.18616
- Han J-W, Park J, Lee H. Analysis of the effect of an artificial intelligence chatbot educational program on non-face-to-face classes: a quasi-experimental study. BMC Medical Educ. 2022;22(1). doi:10.1186/s12909-022-03898-3
- Cohen L, Manion L, Morrison M. Research Methods in Education. 6th ed. New York: Routledge; 2007.
- Brinkmann S. Unstructured and Semi-Structured Interviewing. The Oxford handbook of qualitative research; 2014:277-299.
- Bonsu EM, Baffour-Koduah D. From the consumers’ side: determining students’ perception and intention to use ChatGPT in Ghanaian higher education. Journal of Education, Society & Multiculturalism. 2023;4(1):1-29. doi:10.2478/jesm-2023-0001
- Dworkin SL. Sample Size Policy for Qualitative Studies Using In-Depth Interviews. Arch Sex Behav. 2012;41(6):1319-1320. doi:10.1007/s10508-012-0016-6
- Kallio H, Pietilä A-M, Johnson M, et al. Systematic methodological review: developing a framework for a qualitative semi-structured interview guide. Journal of Advanced Nursing. 2016;72(12):2954-2965. doi:10.1111/jan. 13031
- Cha E, Kim KH, Erlen JA. Translation of scales in cross-cultural research: issues and techniques. Journal of Advanced Nursing. 2007;58 (4):386-395. doi:10.1111/j.1365-2648.2007.04242.x
- Braun V, Clarke V. Using thematic analysis in psychology. Qualitative Research Psychol. 2006;3(2):77-101. doi:10.1191/1478088706qp063oa
- Baker DW, Wolf MS, Feinglass J, Thompson JA, Gazmararian JA, Huang J. Health literacy and mortality among elderly persons. Arch Intern Med. 2007;167:1503-1509. doi:10.1001/archinte.167.14.1503
- Berkman ND, Sheridan SL, Donahue KE, Halpern DJ, Crotty K. Low health literacy and health outcomes: an updated systematic review. Ann Intern Med. 2011;155:97-107. doi:10.7326/0003-4819-155-2-201107190-00005
- Yin HS, Dreyer BP, Foltin G, van Schaick L, Mendelsohn AL. Association of low caregiver health literacy with reported use of nonstandardized dosing instruments and lack of knowledge of weight-based dosing. Ambul Pediatr. 2007;7:292-298. doi:10.1016/j.ambp.2007.04.004
- DeWalt DA, Dilling MH, Rosenthal MS, Pignone MP. Low parental literacy is associated with worse asthma care measures in children. Ambul Pediatr. 2007;7:25-31. doi:10.1016/j.ambp.2006.10.001
- Biswas SS. Role of chat GPT in public health. Ann. Biomed. Eng. 2023;51(5):868-869.
- Asch DA. An Interview with ChatGPT About Health Care. NEJM Catalyst. Massachusetts Med Soc. 2023.
- Yang K, Ji S, Zhang T, Xie Q, Ananiadou S. On the Evaluations of ChatGPT and Emotion-Enhanced Prompting for Mental Health Analysis. Computation and Language, Cornell University; 2023.
- Frąckiewicz M The Impact of ChatGPT on Mental Health and Wellbeing; 2023. Available from: https://ts2.space/en/the-impact-of-chatgpt-on-mental-health-and-wellbeing/#:~:text=ChatGPT is designed to provide,them manage their mental health. Accessed January 26, 2024.
- Farhat F. CHATGPT as a complementary mental health resource: a Boon or a bane. Ann. Biomed. Eng. 2023. doi:10.1007/s10439-023-03326-7
- Tal A, Elyoseph Z, Haber Y, et al. The artificial third: utilizing CHATGPT in mental health. Am J Bioeth. 2023;23(10):74-77. doi:10.1080/ 15265161.2023.2250297
- Spallek S, Birrell L, Kershaw S, Devine EK, Thornton L. Can we use ChatGPT for Mental Health and Substance Use Education? Examining Its Quality and Potential Harms. JMIR Med Educ. 2023;9:e51243. doi:10.2196/51243
مجلة الرعاية الصحية متعددة التخصصات
Dovepress
انشر عملك في هذه المجلة
مجلة الرعاية الصحية متعددة التخصصات هي مجلة دولية محكمة ومفتوحة الوصول تهدف إلى تمثيل ونشر الأبحاث في مجالات الرعاية الصحية التي يقدمها ممارسون من تخصصات مختلفة. يشمل ذلك الدراسات والمراجعات التي أجرتها فرق متعددة التخصصات بالإضافة إلى الأبحاث التي تقيم نتائج أو سلوك هذه الفرق أو عمليات الرعاية الصحية بشكل عام. تغطي المجلة مجموعة واسعة جدًا من المجالات وترحب بالمساهمات من الممارسين على جميع المستويات، من جميع أنحاء العالم. نظام إدارة المخطوطات بالكامل عبر الإنترنت ويشمل نظام مراجعة الأقران سريع وعادل جدًا. قم بزيارةhttp://www.dovepress.com/testimonials.phpلقراءة اقتباسات حقيقية من مؤلفين تم نشرهم.
Journal: Journal of Multidisciplinary Healthcare
DOI: https://doi.org/10.2147/jmdh.s447368
PMID: https://pubmed.ncbi.nlm.nih.gov/38314011
Publication Date: 2024-01-01
DOI: https://doi.org/10.2147/jmdh.s447368
PMID: https://pubmed.ncbi.nlm.nih.gov/38314011
Publication Date: 2024-01-01
Assessing the Effectiveness of ChatGPT in Delivering Mental Health Support: A Qualitative Study
Correspondence: Fahad Alanezi, Tel + 13-3330030, Email fmoalanezi@iau.edu.sa
Abstract
Background: Artificial Intelligence (AI) applications are widely researched for their potential in effectively improving the healthcare operations and disease management. However, the research trend shows that these applications also have significant negative implications on the service delivery.
Purpose: To assess the use of ChatGPT for mental health support.
Methods: Due to the novelty and unfamiliarity of the ChatGPT technology, a quasi-experimental design was chosen for this study. Outpatients from a public hospital were included in the sample. A two-week experiment followed by semi-structured interviews was conducted in which participants used ChatGPT for mental health support. Semi-structured interviews were conducted with 24 individuals with mental health conditions.
Results: Eight positive factors (psychoeducation, emotional support, goal setting and motivation, referral and resource information, self-assessment and monitoring, cognitive behavioral therapy, crisis interventions, and psychotherapeutic exercises) and four negative factors (ethical and legal considerations, accuracy and reliability, limited assessment capabilities, and cultural and linguistic considerations) were associated with the use of ChatGPT for mental health support.
Conclusion: It is important to carefully consider the ethical, reliability, accuracy, and legal challenges and develop appropriate strategies to mitigate them in order to ensure safe and effective use of AI-based applications like ChatGPT in mental health support.
Keywords: ChatGPT, artificial intelligence, mentally-ill patients, support, motivation, anxiety
Methods: Due to the novelty and unfamiliarity of the ChatGPT technology, a quasi-experimental design was chosen for this study. Outpatients from a public hospital were included in the sample. A two-week experiment followed by semi-structured interviews was conducted in which participants used ChatGPT for mental health support. Semi-structured interviews were conducted with 24 individuals with mental health conditions.
Results: Eight positive factors (psychoeducation, emotional support, goal setting and motivation, referral and resource information, self-assessment and monitoring, cognitive behavioral therapy, crisis interventions, and psychotherapeutic exercises) and four negative factors (ethical and legal considerations, accuracy and reliability, limited assessment capabilities, and cultural and linguistic considerations) were associated with the use of ChatGPT for mental health support.
Conclusion: It is important to carefully consider the ethical, reliability, accuracy, and legal challenges and develop appropriate strategies to mitigate them in order to ensure safe and effective use of AI-based applications like ChatGPT in mental health support.
Keywords: ChatGPT, artificial intelligence, mentally-ill patients, support, motivation, anxiety
Introduction
Mental health is important for several reasons. Firstly, it has an impact on how we function and live each day. People with good mental health are more capable to handle stress, keep up positive relationships, and function effectively in both their personal and professional lives.
It also influences our ability to learn, make decisions, and adapt to changes in our environment. Secondly, there is a direct correlation between mental and physical wellness.
Numerous physical health illnesses, such as gastrointestinal troubles, immune system abnormalities, and cardiovascular diseases, have been related to mental health conditions like sadness and anxiety. Additionally, physical health outcomes are impacted by mental health activities, including sleep, exercise, and nutrition.
Thirdly, the welfare of society and the social fabric depends on mental health. Positive social interactions, stronger social ties, and a sense of community and belonging are all enhanced by mental health.
On the other hand, mental health problems that go untreated can result in social exclusion, strained relationships, and detrimental societal effects like elevated healthcare expenses and lower productivity.
Mental health is also a fundamental human right. Everyone has a right to the enjoyment of the best achievable standard of mental health, according to the World Health Organization (WHO), which acknowledges mental health as a critical component of health and wellbeing.
Prioritizing mental health and ensuring that people have access to sufficient mental health services and support are crucial. Realizing its importance, mental health is considered as one of
the sustainable development goals by the United Nations. Mental illness is one of the serious health-related problems affecting globally. Some of the major mental health conditions include anxiety, depression, substance use disorder, bipolar disorder, schizophrenia, eating disorders, obsessive compulsive disorder, and post-traumatic stress disorder.
Additionally, certain issues like tardive dyskinesia can arise due to the side effects of medications.
As per the 2019 statistics,
of the global population is living with mental disorders, accounting to approximately one billion people. Among the mental disorders, anxiety has highest prevalence of
, followed by depression (
), development disorder (11.1%), Attention-deficit/hyper-activity disorder (8.8%), and bipolar disorder (4.1%).
It is observed that people with chronic mental disorders like recurrent depressive disorder die 7 to 1 years earlier than general population.
Only
of low-income,
of lower middle income,
upper middle income, and
of high-income countries reported a fully compliant policy or plan implementation in relation to mental illness, indicating a lack of effective approach at policy levels, with more seriousness in low-income countries.
Despite the seriousness of the problem, globally governments only allocate
of their health budget for treatment and prevention of mental disorders.
the sustainable development goals by the United Nations.
Moreover, globally only
of health research focuses on mental health,
indicating the area is under researched. Considering the seriousness of the problem, it is very much essential to understand that there is an immediate need to extend the research studies on various cost-effective and efficient interventions that could prevent and manage mental health disorders. By considering health literacy and support-based technology interventions as a social practice rather than as a method of changing individual behavior, it is possible to create a wide range of community-based initiatives that result in long-lasting improvements in health and equity. The importance of initiatives to advance health awareness and support at higher social and policy levels is not minimized by this method, but it does urge for these actions to be taken with consideration for how they will affect people, workplaces, and communities in the course of daily life.
This requirement places community involvement at the forefront of all programs designed to increase mental health support, particularly when using apps based on cutting-edge Artificial Intelligence (AI) technology.
The commercial and healthcare sectors have undergone a dramatic transformation as a result of recent advances in artificial intelligence technology, particularly with the introduction of automated virtual assistants or humanoids that provide remarkably accurate information in response to user enquiries. These AI technology solutions can be particularly beneficial in promoting diabetes self-management because to their simplicity, cost, informational and instructional value, engagement, and availability of round-The-clock support. Recent advancements in deep learning and natural language processing have led to the creation of large language models like ChatGPT. These models have been widely used for a variety of tasks, such as text creation, language translation, and question-answering.
According to research,
ChatGPT outperforms earlier models in terms of accuracy and efficiency when responding to a variety of queries. Additionally, ChatGPT has demonstrated the ability to produce text that is coherent and well-organized, making it useful for tasks like content creation and summary.
As a tool for patient care in the healthcare sector, ChatGPT has shown a promising delivery of quality care.
Teleconsultants can make more informed decisions and provide better patient care with the aid of ChatGPT’s ability to give prompt and accurate information
and can assist in disseminating general health-related information to the public.
Studies
indicated that ChatGPT applications were highly applicable to the healthcare sector, but they also highlighted the need for additional study to fully understand ChatGPT’s effects on patients’ health and psychology. AI-based chatbot applications were already proving to be effective in managing mental health of the patients.
In addition, a recent scoping review of such applications has found that the mental health chatbots were easy to use, attractive, quick responders, trustworthy, and enjoy using them.
However, no significant research on the use of ChatGPT was identified in relation to mental health.
Several theories underpin the evaluation of ChatGPT’s efficacy in delivering mental health support to patients. The Technology Acceptance Model (TAM) suggests that a user’s perception of a technology’s ease of use and usefulness influences its adoption. Applied here, it implies that patients’ acceptance and continued use of ChatGPT for mental health support could depend on how user-friendly and beneficial they find the interactions.
Moreover, the Elaboration Likelihood Model (ELM) proposes that the persuasiveness of messages varies based on the depth of cognitive processing. In the context of ChatGPT, the model suggests that the effectiveness of its mental health support may relate to the quality of conversation and the extent to which it engages patients cognitively.
Finally, the Social Cognitive Theory
(SCT) highlights the significance of observational learning and self-efficacy in behavioral change. In this case, patients may benefit from observing others’ positive experiences with ChatGPT and gradually build confidence in using it for mental health support. The convergence of these theories underscores the importance of assessing ChatGPT’s ease of use, the depth of its conversations, and the influence of observed experiences on patients’ confidence in utilizing it for mental health assistance. However, most of the studies
adopted quantitative methods in evaluating the effectiveness of ChatGPT, but undermined the importance of qualitative methods, which can help in deepening the understanding of users opinions and beliefs in different contexts.
(SCT) highlights the significance of observational learning and self-efficacy in behavioral change.
Conducting a study in this context can have significant benefits. Firstly, access to mental health services can be limited due to various barriers, including cost, stigma, and availability of mental health professionals. Thus, exploring innovative and accessible ways to deliver mental health support, such as through ChatGPT, could potentially help bridge this gap and make mental health services more widely available to those in need. Secondly, as technology continues to advance, chatbots and virtual assistants are increasingly being utilized in various domains, including healthcare. ChatGPT, as a state-of-The-art language model, has the potential to revolutionize the way mental health support is delivered by providing a conversational interface that can engage with users in a human-like manner. Understanding the effectiveness of ChatGPT in this context can help inform the development and implementation of technology-based mental health interventions. Thirdly, ethical considerations are paramount in the field of mental health. The use of ChatGPT for mental health support raises ethical concerns related to privacy, data security, informed consent, and the potential impact on the therapeutic relationship. Investigating the ethical implications of using ChatGPT in this context can help identify safeguards and guidelines to protect the well-being and rights of users. Therefore, this study intends to assess the use of ChatGPT for mental health support.
Methods
This study employed a quasi-experimental design
because ChatGPT technology is novel and few individuals are familiar with it.
Study Setting & Participants
Various factors were considered for evaluating ChatGPT’s effectiveness in delivering mental health support, based on a preliminary literature review investigation. Participants included outpatients ( 18 years or above) with mental-health conditions including anxiety, depression, and behavioral disorders from the hospital at King Fahad University, Saudi Arabia. During outpatient visits, the patients were requested to participate in the research while the purpose and objectives were explained. Patients were instructed, with their consent, to use ChatGPT (free version 3.5) at home for two weeks to seek support from ChatGPT to manage their condition for at least 15 minutes a day. Participants were free to inquire about any mental-health related information by posing any query or self-management practices, or a friendly interaction. The participants were asked to partake in semi-structured interviews at the university hospital following a two-week experiment. A semi-structured interview is defined as a conversation between at least two individuals about a topic of shared interest that also encourages disagreement in interpretation and the exchange of perspectives.
Semistructured interviews are a format that researchers or interviewers can choose because they give them the option to preformulate the questions and add more pertinent ones later in the interviewing process.
Selection and Sampling
As the study required that participants use ChatGPT for a period of time, it was imperative that the researchers use a readily accessible sample. Consequently, both purposive and convenience sampling techniques were used in this study, as was customary for comparable research.
Purposive sampling was used for selecting participants based on their characteristics, knowledge, experiences such as “affecting from mental health problems” and has “awareness of using ChatGPT”; and convenience sampling was used to recruit individuals who can be easily accessed, ie, from university hospital. When approximately 42 adult patients were initially asked if they were interested in participating in the study, 35 responded positively. Only 24 out of the 38 patients were aware of ChatGPT and its function. Consequently, 24 patients were selected to participate in the study. Before participating in an interview, the patients were thoroughly
informed of the study’s objectives and given the opportunity to provide informed consent during their outpatient visit. Following approval, patients used ChatGPT at home for two weeks to seek mental-health support in their own ways. The participants were required to interact with ChatGPT3 for a minimum of 15 minutes per day for 14 days. Twenty to thirty interviews were regarded an appropriate sample size for qualitative investigations, particularly those employing interviews as a method of data collection. In this qualitative quasi-experimental investigation, therefore, 24 outpatients with different mental-health conditions were considered for data collection.
informed of the study’s objectives and given the opportunity to provide informed consent during their outpatient visit. Following approval, patients used ChatGPT at home for two weeks to seek mental-health support in their own ways. The participants were required to interact with ChatGPT3 for a minimum of 15 minutes per day for 14 days. Twenty to thirty interviews were regarded an appropriate sample size for qualitative investigations, particularly those employing interviews as a method of data collection.
Questionnaire Design
One can conduct semi-structured interviews in a variety of methods. It is important to note that, in contrast to structured interviews, these types of interviews do not commence with a predetermined list of questions; rather, the researchers develop a small number of initial interview questions. Based on the responses of the interviewees, it is possible to introduce new questions or expand the existing ones.
As a result, the authors designed an interview questionnaire containing four demographic inquiries pertaining to gender, age, education, and employment status. In addition, there are ten questions regarding the impact of ChatGPT on participants’ perceptions of ChatGPT for delivering mental-health support, based on their utilization. The questions are provided in Appendix A. The interview questions were then translated from English to Arabic by a qualified translator.
Two professors from the eHealth department at Imam Abdulrahman Bin Fahd University certify the translated questionnaire. A few grammatical adjustments were suggested, and the Arabic version was revised to incorporate them.
Data Collection
The semi-structured interviews that took place in the university hospital were conducted in Arabic. The interviews were recorded audibly. On average, each interview lasted approximately 54 minutes, lasting between 50 and 60 minutes. The participants consented to having their interviews recorded.
Data Analysis
The recorded interviews were converted into interview transcripts (text documents) using the NVivo software. The Arabic interview transcripts were then translated into English for improved examination. The interview data were analyzed using thematic analysis, a common approach used in qualitative studies.
Initially, 162 distinct codes that emphasize specific information were discovered from interview transcripts. The codes were then classified into twelve themes based on their similarities reflecting both negative (four themes including ethical and legal considerations, accuracy and reliability, limited assessment capabilities, and cultural and linguistic considerations) and positive effects (eight themes including psychoeducation, emotional support, goal setting and motivation, referral and resource information, self-assessment and monitoring, cognitive behavioral therapy techniques, crisis intervention, and psychotherapeutic exercises) on mental health support, which were then used to analyze the results.
Ethics-Related Factors
The research ethics committee at Abdulrahman Bin Faisal University approved the study. This study complies with the declaration of Helsinki. The data collection and analysis process were conducted in accordance with all applicable ethical standards. The purpose of the investigation and the participants’ legal rights were disclosed in full. Informed consent is obtained from all the participants. Each interviewee was given a fictitious name to safeguard the participants’ anonymity. Before the interviews began, all participants gave their informed consent, and participation was entirely voluntary. The participants informed consent included publication of anonymized responses.
Results
Participants’ Characteristics
Twenty-four patients participated in the interviews. Eight participants were females and sixteen participants were males. The demographic information of the participants is presented in Table S1 and Appendix B.
ChatGPT for Delivering Mental-Health Support
Analysis of interview data resulted in twelve themes, which can be related to the use of ChatGPT for mental health support. These are presented in the following sections.
Psychoeducation
All participants recognized ChatGPT’s importance in education, especially lifetime learning about mental health disorders, which psychologists and other doctors may not explain. Over
of participants ( 15 out of 24 interviewees) believed ChatGPT could educate patients about mental health conditions, their causes, symptoms, and treatment options to improve their mental health literacy. Nearly
of participants said ChatGPT helped them manage their mental health symptoms with relaxation, mindfulness, stress-reduction, and other evidence-based coping skills they could use daily. The following statements support the findings.
I was experiencing fear syndrome and negative thoughts for a while now. Although, I take few medicines and practice yoga, I could not improve my condition completely because of lack of awareness or complete information about my condition. I learned about my condition by asking ChatGPT, and it gave me a clear picture of myself, and how I can improve my condition (Interviewee 4)
ChatGPT was very supportive, easy to use, and quick in responses. I learned a lot about mental-health conditions, the ways to improve, and the current research and updates in this area.like the use of AI-based technologies like Chatbots for providing mental support (Interviewee 21)
Emotional Support
More than
of the participants ( 13 out of 24 interviewees) referred to the emotional support of ChatGPT. The participants believed that ChatGPT could offer empathetic responses and validation to individuals who may be struggling with their emotions; and it could also, provide a non-judgmental space for individuals to express their feelings and concerns, and offer compassionate responses to help patients feel heard and understood. These findings are realized from the following supportive statements.
I said the application that I am sad, and its reply that it was sorry to hear that I am sad, and provided some suggestions to improve my mood…These things made me feel more happy seeing that a machine is caring for me, and it was doing its best for making me feel happy, like it said a joke… (Interviewee 6)
The application provided funny jokes, which has brighten-up my mood…For example, why the bicycle can stand on its own? Because it is two-tired…and many more jokes like this (Interviewee 17)
I was feeling really relaxed and peaceful, as I could openly express my feelings to a machine, without revealing my identity (Interviewee 12)
Goal Setting and Motivation
Few participants (five out of 24 interviewees) observed that ChatGPT could help them set goals and develop a plan to achieve them. Furthermore, almost
of the participants ( 11 out of 24 interviewees) believed that it provided motivational support by encouraging them to take positive steps towards improving their mental health, such as setting small achievable goals and tracking progress over time. These findings can be inferred from the following supportive statements.
By taking cue from my doctor, who suggested me to set goals and achieve them, I asked the application, if it can help in this process. Although, it could not store and monitor data, it suggested many AI-based applications for goal-setting and monitoring purpose. (Interviewee 19)
I requested it to help me in stopping smoking. It was providing many motivational messages and the good effects of quitting smoking…It was a different experience seeking motivation from an unknown, but it helped me in becoming motivated, as I became aware of many risks, which I do not know earlier (Interviewee 23)
Referral and Resource Information
Few participants (six out of 24 interviewees) found that ChatGPT could provide information about mental health resources like books, magazines, and journals; and suggest the ways to find medical resources such as therapists, counselors, support groups, and hotlines. It can also help patients find local mental health services and provide contact information for relevant organizations or professionals. These findings are inferred from the following statements.
It helped me in finding some good orthopedic doctors in Riyadh. It suggested many applications like Labayh, which I used to find the good orthopedic doctors in my area, also found the reviews for them. This helped me in decision-making on selecting the doctor. (Interviewee 1)
It provided many book names and journals like The Depression Cure: The 6-Step Program to Beat Depression without Drugs by Stephen, which really helped me in managing my condition (Interviewee 15)
Self-Assessment and Monitoring
Majority of the participants ( 18 out of 24 interviewees) found that ChatGPT could facilitate self-assessment and monitoring of mental health symptoms over time. By seeking relevant information, the participants were able to assess and monitor their conditions. Furthermore, they observed that ChatGPT provided guidance on self-care practices that promoted their mental well-being, such as maintaining a healthy lifestyle, getting regular exercise, practicing good sleep hygiene, and engaging in activities that bring joy and fulfillment. These findings are inferred from the following supportive statements.
It suggested many approaches like having enough sleep, taking a balanced diet, regular exercises, and many more…most importantly it explained me how these lifestyle changes could help me in coming out of depression…like it said regular exercise would release feel good hormone, endorphin, which can reduce stress and improve mood. (Interviewee 11)
After knowing about symptoms of anxiety in detail, I was better aware of my condition and treatment.Also I was able to track my progress, and adopt self-are practices after receiving the suggestions from the application (Interviewee 18)
Cognitive Behavioral Therapy (CBT) Techniques
Few participants (three out of 24 interviewees) opined that ChatGPT could help patients practice cognitive restructuring, a common technique used in CBT, which involves identifying and challenging negative thought patterns and replacing them with more balanced and rational thoughts. In supporting the findings, Interviewee 10 stated that
By seeking help from the application, I was able to identify my negative thoughts more effectively and started to replace them with positive ones.I was in a better position than before in doing this process because of the support from the application
Another Interviewee 8 stated that
I was sometimes confused to identify thoughts, because, although a thought is negative, I felt some positive angle to it…But by taking cues from the application, I was able to better frame my thoughts
I was sometimes confused to identify thoughts, because, although a thought is negative, I felt some positive angle to it…But by taking cues from the application, I was able to better frame my thoughts
Crisis Intervention
Few participants (eight out of 24 interviewees) ChatGPT could provide crisis intervention support for patients who may be experiencing acute distress or in need of immediate assistance. It can also provide information on emergency hotlines, suicide prevention resources, and guide patients on steps to take in a crisis. In this context, interviewee 5 stated that
I tried asking emergency helpline numbers…Like I asked for emergency number to seek help from suicide thoughts.It provided 937 number… Saudi Red Crescent Authority (SRCA), which is responsible for providing emergency medical services and crisis intervention in Saudi Arabia, including suicide prevention.
While I received support from the application to manage my condition, I also asked about all emergency support numbers and noted them down, as I was not aware of them…this would help me in case of emergencies (Interviewee 7)
Psychotherapeutic Exercises
About 50% of the participants (11 out of 24 interviewees) ChatGPT could facilitate various psychotherapeutic exercises, such as guided imagery, journaling prompts, and thought challenging exercises, to help patients explore their emotions, gain insights, and develop coping skills. This finding can be inferred from the following supportive statements.
The application helped me in adopting effective practices to change my mood. Like it suggested me to write down three positive things happened in a day, asked me to think why I felt they are positive, and asked me to appreciate the positive moments…tis way I started to think more positively and avoided negative thoughts (Interviewee 22)
Its approach to motivate myself and gain self-control has influenced me.It suggested to write down things or negative thoughts that bother me…and asked to write why they bother me, and how can I gain control over them, and set goas to gain control… this way, I started to change my behavior. (Interviewee 13)
The findings also revealed some challenges associated with ChatGPT in providing mental health support, which included the following.
Ethical and Legal Considerations
There are ethical and legal considerations surrounding the use of AI in mental health support. Issues such as data privacy, consent, confidentiality, and the potential for biases in AI algorithms are the few challenges raised by most of the participants. These are inferred from the following statements.
I was worried, if my personal details or my health-related queries that I ask ChatGPT may be leaked or misused.Some of the information could be personal, and these days I hear a lot about personal data theft online (Interviewee 2)
I am not aware whom to go, if the ChatGPT suggestions prove to be failure or pose any risk…I am not sure if it is regulated by government or not, as it keeps saying that it is a language model and keeps on learns from new data sets (Interviewee 16)
Accuracy and Reliability
Nearly
(20 out of 24 interviewees) observed various accuracy and reliability related issues with ChatGPT. Most of the concerns were about the reliability of the information it provides. The following statements support this finding.
When I enquired how reliable is its information, it stated that it may be trained on outdated or incomplete information; there could be biases in training data; its inability to very facts; inability to adopt moral considerations.and lot more.It confuses me. although, the information it provided was mostly correct, but it itself states that its data could be inaccurate or unreliable (Interviewee 3)
In some instance, it did not provide any data. It said it is only language model and cannot prescribe any medicines for anxiety. But when I modified question and asked what common medicines are used for anxiety, it gave a list of medicines like Prozac, Zoloft, Lexapro. But are they reliable and safe? I am not sure. (Interviewee 20)
Limited Assessment Capabilities
Mental health is a condition which requires careful assessment. However, most of the participants stated that the application lacks assessment skills. Furthermore, due to its biased responses, there are safety concerns that may emerge on its use for mental health support. Furthermore, it lacks human sense of touch and emotion, which are very much essential in treating mental-health conditions. These findings are inferred from the following statements.
When I asked the application to diagnose and assess me about my anxiety, it states that it doesn’t have the ability to diagnose or assess individuals mental health condition (Interviewee 24)
It was openly providing some medicine names for different conditions. This a big concern, as few people may use the information for unethical purposes (Interviewee 11)
One of the most important concerns I observed was lack of personal interaction with human. Although I got privacy and a sense of independence in freely sharing with ChatGPT, due is emotionless state, I am not aware if it understood my problems or not, and it was little demotivating for me to interact. (Interviewee 14)
Cultural and Linguistic Considerations
Few participants (four out of 24 interviewees) opined that ChatGPT may not be fully equipped to understand and address the cultural and linguistic diversity of patients. It may not be able to fully adapt to patients’ cultural beliefs, values, and language preferences, which can affect the effectiveness of the support provided. These findings can be inferred from the following statements.
It was understanding Arabic, that’s a good thing; but it was not aware of few cultural words and things that are traditionally rooted in Arabic culture, which was affecting my interaction with ChatGPT (Interviewee 11)
If I share my problems like I fear about something that is culturally rooted, a personal doctor may understand my problem.I tried some instances with ChatGPT, but it was unable to recognize the issue (interviewee 6)
Discussion
The qualitative analysis of the interview data resulted in twelve themes reflecting the impact of ChatGPT as a tool on mental health support. Out of the twelve, eight themes were identified to be positively associated and four themes were negatively associated with ChatGPT for mental health support.
One of the significant impacts of ChatGPT for mental health support was observed in relation to psychoeducation. Studies
have observed that poor health literacy is one of the critical challenges facing all the countries globally, resulting in increasing healthcare costs and poor management of public health. The findings in this study reflected that ChatGPT could be an effective intervention tool for psychoeducation, which can significantly improve the mental health of the individuals, making them effective in taking informed decisions.
Furthermore, in some contexts, it was observed ChatGPT was providing emotional support to the participants. This indicates the relevance of ChatGPT in providing mental health support, where emotional support plays an important role in the treatment.
In addition, ChatGPT’s role in motivation and goal setting, referral and resource informational source were identified in recent study.
Although, ChatGPT was identified to be effective for self-assessment and monitoring in few studies,
issues such as inadequate evaluation, poor utilization of emotional information was identified in other studies.
Similar AI-application based studies for mental health support
have also identified issues with emotional support, diagnosis, and assessment in providing mental health support.
However, its role in other areas such as treatment and support strategies could be more supportive in providing mental health support. For instance, Cognitive restructuring support from ChatGPT can help patients develop healthier thinking patterns and improve their overall mental well-being. In addition, ChatGPT can offer psycho-social support to patients by providing a compassionate and non-judgmental space for them to talk about their concerns, fears, and challenges.
However, it is important to remember that while ChatGPT can provide valuable support, it is not a substitute for professional mental health care. It is always recommended for patients to seek qualified medical advice and treatment from licensed mental health professionals for their specific needs.
While ChatGPT is a powerful language model, it may not always provide accurate or reliable information. It is important to ensure that the information provided by ChatGPT is evidence-based and up-to-date to avoid misinformation and potential harm to patients. However, it is important to remember that the application is trained on different datasets, which may be new or old ones. Therefore, there is need to integrate factchecking functionality to increase the accuracy and reliability of the application in providing mental health support.
It is interesting to note that, although many participants stated that ChatGPT provides good information; yet they were concerned about the accuracy and reliability of the information. ChatGPT may have limitations in assessing patients’ mental health conditions accurately, as stated in.
Furthermore, it may not be able to fully understand complex emotions, interpret non-verbal cues, or accurately assess the severity of mental health symptoms, which can affect the quality of support provided.
There may be safety concerns in providing mental health support through an AI tool. For example, in cases of crisis or emergencies, ChatGPT may not be able to provide appropriate and timely interventions, and patients may require immediate human intervention. As an AI-powered tool, ChatGPT lacks the human touch and emotional connection that can be important in mental health support.
Building rapport, establishing trust, and providing empathy, which are crucial in therapeutic relationships, may be challenging for an AI model like ChatGPT. However, recent studies
have identified potential benefits of using ChatGPT for mental health, suggesting it as a reliable intervention tool.
While the findings in this study reflects more positive aspects of ChatGPT as a tool for mental health support, especially in education and access to general health information; there are few challenges associated with it, and for addressing these, the application may require additional improvements. In addition, further studies are required to gain a clear understanding into the effects of using ChatGPT for mental health support.
The findings in this study have both practical and theoretical implications. Firstly, the findings from this study contributes to the research gaps on the application of ChatGPT in healthcare. Secondly, the findings in this study can be used by the policy makers, system designers and research institutions to develop strategies for the application of ChatGPT in providing mental health support, thereby increasing access to healthcare services, and reducing healthcare costs. The study also has few limitations. The study used a small sample for collecting the data, and only from a particular location. However, the awareness and the skills of using AI applications may differ among individuals. Therefore, results in this study must be generalized with care.
Conclusion
The purpose of this study is to assess the use of ChatGPT for mental health support, which was achieved through a qualitative approach. As observed from the findings in this study, despite various challenges, AI-powered tools like ChatGPT have the potential to provide valuable mental health support to patients when used appropriately and as part of a comprehensive mental health care plan. Therefore, it is important to carefully consider these challenges and develop appropriate strategies to mitigate them in order to ensure safe and effective use of AI-based applications like ChatGPT in mental health support. Furthermore, the area of ChatGPT application in healthcare is under researched and requires immediate attention among the researchers to expand the scope of research associated with ChatGPT, as it has a huge potential in improving healthcare services.
Disclosure
The author reports no conflicts of interest in this work.
References
- Walsh R. Lifestyle and mental health. Am Psychologist. 2011;66(7):579-592. doi:10.1037/a0021769
- Orpana H, Vachon J, Dykxhoorn J, McRae L, Jayaraman G. Monitoring positive mental health and its determinants in Canada: the development of the Positive Mental Health Surveillance Indicator Framework. Health Promot Chronic Dis Prev Can. 2016;36(1):1-10. doi:10.24095/hpcdp.36.1.01
- Centers for Disease Control and Prevention. Heart Disease and Mental Health Disorders; 2023. Available from: cdc.gov/heartdisease/mentalhealth. htm. Accessed January 26, 2024.
- Salleh MR. Life event, stress and illness. Malays J Med Sci. 2008;15(4):9-18.
- Clapp M, Aurora N, Herrera L, Bhatia M, Wilen E, Wakefield S. Gut microbiota’s effect on mental health: the gut-brain axis. Clin Pract. 2017;7 (4):987. doi:10.4081/cp. 2017.987
- Naughton MJ, Weaver KE. Physical and mental health among cancer survivors: considerations for long-term care and quality of life.
. 2014;75(4):283-286. doi:10.18043/ncm.75.4.283 - Romeo RD. The impact of stress on the structure of the Adolescent Brain: implications for Adolescent Mental Health. Brain Res. 2017;1654:185-191. doi:10.1016/j.brainres.2016.03.021
- Ollinheimo A, Hakkarainen K. Critical thinking as cooperation and its relation to Mental Health and Social Welfare. New Ideas Psychol. 2023;68:100988. doi:10.1016/j.newideapsych.2022.100988
- Boardman J. Social exclusion and mental health – how people with mental health problems are disadvantaged: an overview. Ment Health Soc Incl. 2011;15(3):112-121. doi:10.1108/20428301111165690
- Heinz A, Zhao X, Liu S. Implications of the Association of Social Exclusion with Mental Health. JAMA Psychiatry. 2020;77(2):113-114. doi:10.1001/jamapsychiatry.2019.3009
- World Health Organization. Connecting mental health and human rights; 2023. Available from: https://www.who.int/europe/activities/connecting-mental-health-and-human-rights. Accessed January 26, 2024.
- World Health Organization. Mental health; 2023. Available from: https://www.who.int/health-topics/mental-health#tab=tab_1. Accessed January 26, 2024.
- Marissa W Mental health statistics 2023; 2023. Available from: https://www.singlecare.com/blog/news/mental-health-statistics/. Accessed January 26, 2024.
- Uludag K, Wang DM, Goodman C, Wang L, Zhang X. Prevalence, clinical correlates and risk factors associated with Tardive Dyskinesia in Chinese patients with schizophrenia. Asian J Psychiatry. 2021;66:102877. doi:10.1016/j.ajp.2021.102877
- World Health Organization. World Mental health Report; 2023. Available from: https://www.who.int/publications/i/item/9789240049338. Accessed January 26, 2024.
- Chesney E, Goodwin GM, Fazel S. Risks of all-cause and suicide mortality in mental disorders: a meta-review. World Psychiatry. 2014;13 (2):153-160. doi:10.1002/wps. 20128
- World Health Organization. Mental health atlas 2020; 2023. Available from: https://apps.who.int/iris/handle/10665/345946. Accessed January 26, 2024.
- World Health Organization. The world health report 2001. Mental health: new understanding, new hope. Geneva; 2023. Available from: https:// apps.who.int/iris/handle/10665/42390. Accessed January 26, 2024.
- World Health Organization. Health literacy development for the prevention and control of noncommunicable diseases; 2023. Available from: https://www.who.int/publications-detail-redirect/9789240055391. Accessed January 26, 2024.
- Aljanabi M, Ghazi M, Ali AH, Abed SA. ChatGpt: open Possibilities. Iraqi J Computer Sci Mathematics. 2023;4(1):62-64.
- Shen Y, Heacock L, Elias J, et al. CHATGPT and other large language models are double-edged swords. Radiology. 2023;307. doi:10.1148/ radiol. 230163
- Jiao W, Wang W, Huang H, Wang X, Tu Z. Is ChatGPT a Good Translator? A Preliminary Study. Computation Language. 2023. doi:10.48550/ arXiv. 2301.08745
- Gao CA, Howard FM, Markov NS, et al. Comparing scientific abstracts generated by CHATGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers. J Electonic. 2022.
- Aydın Ö, Karaarslan E. Is Chatgpt leading generative ai? What is beyond expectations? SSRN Electron J. 2023. doi:10.2139/ssrn. 4341500
- Primack D Here come the robot doctors; 2023. Available from: https://www.axios.com/2023/01/18/chatgpt-ai-health-care-doctors. Accessed January 26, 2024.
- Nov O, Singh N, Mann DM. Putting chatgpt’s medical advice to the (turing) test. SSRN Electronic Journal. 2023. doi:10.2139/ssrn.4413305
- Aljanabi M. ChatGPT: future Directions and Open possibilities. Mesopotamian j Cybersecurity. 2023;16-17. doi:10.58496/MJCS/2023/003
- Cascella M, Montomoli J, Bellini V, Bignami E. Evaluating the feasibility of CHATGPT in Healthcare: an analysis of multiple clinical and research scenarios. J Med Systems. 2023;47(1). doi:10.1007/s10916-023-01925-4
- Biswas SS. Role of chat GPT in public health. Ann. Biomed. Eng. 2023;51(5):868-869. doi:10.1007/s10439-023-03172-7
- Khan RA, Jawaid M, Khan AR, Sajjad M. CHATGPT – Reshaping Medical Education and clinical management. Pakistan J Med Sci. 2023;39(2). doi:10.12669/pjms.39.2.7653
- Goodman RS, Patrinely JR, Osterman T, Wheless L, Johnson DB. On the cusp: considering the impact of artificial intelligence language models in healthcare. Medicine. 2023;4(3):139-140. doi:10.1016/j.medj.2023.02.008
- Seth I, Rodwell A, Tso R, Valles J, Bulloch G, Seth N. A conversation with an open artificial intelligence platform on osteoarthritis of the Hip and treatment. J Orthopaedics Sports Med. 2023;05(01). doi:10.26502/josm.511500088
- Sng GG, Tung JY, Lim DY, Bee YM. Potential and pitfalls of CHATGPT and natural-language artificial intelligence models for diabetes education. Diabetes Care. 2023;46(5):e103-e105. doi:10.2337/dc23-0197
- Fingerprintfr success. The Best Mental Health Chatbots (& What They Can Do for You); 2023. Available from: https://www.fingerprintforsuccess. com/blog/mental-health-chatbot#:~:text=Woebot,conditions%20like%20depression%20and%20anxiety. Accessed January 26, 2024.
- Sweeney C, Potts C, Ennis E, et al. Can Chatbots help support a person’s mental health? Perceptions and views from mental healthcare professionals and experts. ACM Transactions Computing Healthcare. 2021;2(3):1-15. doi:10.1145/3453175
- Dosovitsky G, Pineda BS, Jacobson NC, Chang C, Escoredo M, Bunge EL. Artificial Intelligence Chatbot for Depression: descriptive Study of Usage. JMIR Form Res. 2020;4(11):e17065. doi:10.2196/17065
- Abd-Alrazaq AA, Alajlani M, Ali N, Denecke K, Bewick BM, Househ M. Perceptions and opinions of patients about Mental Health Chatbots: scoping review. J Med Internet Res. 2021;23(1):1. doi:10.2196/17828
- Bin-Nashwan SA, Sadallah M, Bouteraa M. Use of chatgpt in academia: academic integrity hangs in the balance. Technol Soc. 2023;75:102370. doi:10.1016/j.techsoc.2023.102370
- Shahsavar Y, Choudhury A. User Intentions to Use ChatGPT for Self-Diagnosis and Health-Related Purposes: cross-sectional Survey Study. JMIR Hum Factors. 2023;10:e47564. doi:10.2196/47564
- Ali O, Murray PA, Momin M, Al-Anzi FS. The knowledge and innovation challenges of CHATGPT: a scoping review. Technol Soc. 2023;75:102402. doi:10.1016/j.techsoc.2023.102402
- Paul J, Ueno A, Dennis C. chatgpt and consumers: benefits, Pitfalls and Future Research Agenda. Int J Consum Stud. 2023;47(4):1213-1225. doi:10.1111/ijcs. 12928
- Salah M, Alhalbusi H, Ismail MM, Abdelfattah F. Chatting with CHATGPT: decoding the mind of chatbot users and unveiling the intricate connections between user perception, trust and stereotype perception on self-esteem and psychological well-being. Current Psychology. 2023. doi:10.1007/s12144-023-04989-0
- Zhu G, Fan X, Hou F, et al. Embrace Opportunities and Face Challenges: using ChatGPT in Undergraduate Students’ Collaborative Interdisciplinary Learning. Computers Society. 2023. doi:10.48550/arXiv.2305.18616
- Han J-W, Park J, Lee H. Analysis of the effect of an artificial intelligence chatbot educational program on non-face-to-face classes: a quasi-experimental study. BMC Medical Educ. 2022;22(1). doi:10.1186/s12909-022-03898-3
- Cohen L, Manion L, Morrison M. Research Methods in Education. 6th ed. New York: Routledge; 2007.
- Brinkmann S. Unstructured and Semi-Structured Interviewing. The Oxford handbook of qualitative research; 2014:277-299.
- Bonsu EM, Baffour-Koduah D. From the consumers’ side: determining students’ perception and intention to use ChatGPT in Ghanaian higher education. Journal of Education, Society & Multiculturalism. 2023;4(1):1-29. doi:10.2478/jesm-2023-0001
- Dworkin SL. Sample Size Policy for Qualitative Studies Using In-Depth Interviews. Arch Sex Behav. 2012;41(6):1319-1320. doi:10.1007/s10508-012-0016-6
- Kallio H, Pietilä A-M, Johnson M, et al. Systematic methodological review: developing a framework for a qualitative semi-structured interview guide. Journal of Advanced Nursing. 2016;72(12):2954-2965. doi:10.1111/jan. 13031
- Cha E, Kim KH, Erlen JA. Translation of scales in cross-cultural research: issues and techniques. Journal of Advanced Nursing. 2007;58 (4):386-395. doi:10.1111/j.1365-2648.2007.04242.x
- Braun V, Clarke V. Using thematic analysis in psychology. Qualitative Research Psychol. 2006;3(2):77-101. doi:10.1191/1478088706qp063oa
- Baker DW, Wolf MS, Feinglass J, Thompson JA, Gazmararian JA, Huang J. Health literacy and mortality among elderly persons. Arch Intern Med. 2007;167:1503-1509. doi:10.1001/archinte.167.14.1503
- Berkman ND, Sheridan SL, Donahue KE, Halpern DJ, Crotty K. Low health literacy and health outcomes: an updated systematic review. Ann Intern Med. 2011;155:97-107. doi:10.7326/0003-4819-155-2-201107190-00005
- Yin HS, Dreyer BP, Foltin G, van Schaick L, Mendelsohn AL. Association of low caregiver health literacy with reported use of nonstandardized dosing instruments and lack of knowledge of weight-based dosing. Ambul Pediatr. 2007;7:292-298. doi:10.1016/j.ambp.2007.04.004
- DeWalt DA, Dilling MH, Rosenthal MS, Pignone MP. Low parental literacy is associated with worse asthma care measures in children. Ambul Pediatr. 2007;7:25-31. doi:10.1016/j.ambp.2006.10.001
- Biswas SS. Role of chat GPT in public health. Ann. Biomed. Eng. 2023;51(5):868-869.
- Asch DA. An Interview with ChatGPT About Health Care. NEJM Catalyst. Massachusetts Med Soc. 2023.
- Yang K, Ji S, Zhang T, Xie Q, Ananiadou S. On the Evaluations of ChatGPT and Emotion-Enhanced Prompting for Mental Health Analysis. Computation and Language, Cornell University; 2023.
- Frąckiewicz M The Impact of ChatGPT on Mental Health and Wellbeing; 2023. Available from: https://ts2.space/en/the-impact-of-chatgpt-on-mental-health-and-wellbeing/#:~:text=ChatGPT is designed to provide,them manage their mental health. Accessed January 26, 2024.
- Farhat F. CHATGPT as a complementary mental health resource: a Boon or a bane. Ann. Biomed. Eng. 2023. doi:10.1007/s10439-023-03326-7
- Tal A, Elyoseph Z, Haber Y, et al. The artificial third: utilizing CHATGPT in mental health. Am J Bioeth. 2023;23(10):74-77. doi:10.1080/ 15265161.2023.2250297
- Spallek S, Birrell L, Kershaw S, Devine EK, Thornton L. Can we use ChatGPT for Mental Health and Substance Use Education? Examining Its Quality and Potential Harms. JMIR Med Educ. 2023;9:e51243. doi:10.2196/51243
Journal of Multidisciplinary Healthcare
Dovepress
Publish your work in this journal
The Journal of Multidisciplinary Healthcare is an international, peer-reviewed open-access journal that aims to represent and publish research in healthcare areas delivered by practitioners of different disciplines. This includes studies and reviews conducted by multidisciplinary teams as well as research which evaluates the results or conduct of such teams or healthcare processes in general. The journal covers a very wide range of areas and welcomes submissions from practitioners at all levels, from all over the world. The manuscript management system is completely online and includes a very quick and fair peer-review system. Visit http://www.dovepress.com/testimonials.php to read real quotes from published authors.
