التأثيرات الوسيطة المزدوجة للقلق تجاه استخدام وتقبل تكنولوجيا الذكاء الاصطناعي على العلاقة بين إدراك طلاب التمريض ونواياهم لاستخدامها: دراسة وصفية Dual mediating effects of anxiety to use and acceptance attitude of artificial intelligence technology on the relationship between nursing students’ perception of and intention to use them: a descriptive study

المجلة: BMC Nursing، المجلد: 23، العدد: 1
DOI: https://doi.org/10.1186/s12912-024-01887-z
PMID: https://pubmed.ncbi.nlm.nih.gov/38539198
تاريخ النشر: 2024-03-28

التأثيرات الوسيطة المزدوجة للقلق تجاه استخدام وتقبل تكنولوجيا الذكاء الاصطناعي على العلاقة بين إدراك طلاب التمريض ونواياهم لاستخدامها: دراسة وصفية

كيونغ آه تشو (دي ويون هي سيو2*®

الملخص

الخلفية: تقنيات الرعاية الصحية المعتمدة على الذكاء الاصطناعي (AI) تغير من أدوار الممرضين وتعزز من رعاية المرضى. ومع ذلك، قد لا يكون طلاب التمريض على دراية بالفوائد، وقد لا يتم تدريبهم على استخدام التقنيات المعتمدة على الذكاء الاصطناعي في ممارستهم، وقد تكون لديهم مخاوف أخلاقية بشأن استخدامها. تم إجراء هذه الدراسة لتحديد التأثيرات الوسيطة المزدوجة للقلق من الاستخدام والموقف القابل للتقبل تجاه الذكاء الاصطناعي على العلاقة بين الإدراك والنوايا لاستخدام الذكاء الاصطناعي بين طلاب التمريض في كوريا الجنوبية. الطرق: اتبع نموذج البحث نموذج PROCESS Macro 6 الذي اقترحه هايز. كان المشاركون 180 طالب تمريض في غيونغجي-دو. تم جمع البيانات من 5 إلى 16 يناير 2023، باستخدام استبيانات ذاتية التقرير. تم تحليل البيانات باستخدام برنامج SPSS/WIN 25.0، مع اختبارات t المستقلة، وتحليل التباين الأحادي، وارتباطات بيرسون، وطريقة PROCESS ماكرو لهايز للوساطة. النتائج: كان الإدراك للذكاء الاصطناعي مرتبطًا إيجابيًا بموقف القابلية للتقبل. )، نية استخدام الذكاء الاصطناعي ( ، ) ومرتبط سلبياً بالقلق ( ). القلق بشأن الذكاء الاصطناعي مرتبط سلبًا بموقف قبول الذكاء الاصطناعي ( ) ونوايا استخدام الذكاء الاصطناعي ( ). كانت المواقف الإيجابية تجاه الذكاء الاصطناعي مرتبطة بشكل إيجابي بنوايا استخدام الذكاء الاصطناعي ( كان للقلق بشأن الذكاء الاصطناعي والموقف الإيجابي تجاه الذكاء الاصطناعي تأثير وساطة مزدوج على العلاقة بين إدراك الذكاء الاصطناعي والنوايا لاستخدامه. الاستنتاجات من الضروري تطوير برامج تعليمية منهجية لتحسين إدراك الذكاء الاصطناعي. وبالتالي، يمكن تحسين كفاءة واحترافية طلاب التمريض فيما يتعلق باستخدام الذكاء الاصطناعي في الرعاية الصحية.

الكلمات الرئيسية: الذكاء الاصطناعي، الذكاء الاصطناعي، الإدراك، نية استخدام الذكاء الاصطناعي، طالب تمريض

الخلفية

الذكاء الاصطناعي (AI) هو مصطلح شامل للتقنيات التي تدرب الحواسيب على محاكاة الوظائف الإدراكية البشرية، مثل الاستنتاج، والتواصل، والتعلم، واتخاذ القرار. تشمل مجالات الذكاء الاصطناعي هندسة الروبوتات، وتعلم الآلة، والتعلم العميق، ومعالجة اللغة الطبيعية، ومعظم هذه التقنيات لها صلة فورية بمجال الرعاية الصحية، ولكن العمليات والمهام المحددة التي تدعمها تختلف بشكل كبير. في التمريض، يمكن أن تساعد أنظمة الروبوتات المعتمدة على الذكاء الاصطناعي ليس فقط في تخفيف الأعباء المرتبطة بالمهام الروتينية والمتكررة، مثل قياس العلامات الحيوية، وقياس المدخلات والمخرجات، وتغيير الوضعية، ولكن أيضًا في إنشاء نظام تمريض منظم. تعزز التكنولوجيا المعتمدة على الذكاء الاصطناعي كفاءات الممرضين العملية وتحسن نتائج صحة المرضى.
ستحدث التكنولوجيا المعتمدة على الذكاء الاصطناعي ثورة في التمريض والرعاية الصحية من خلال تعزيز الترويج للصحة والوقاية من الأمراض، وتسهيل تطوير خطط العلاج الشخصية، وأتمتة المهام، وتعزيز التعاون بين المتخصصين في الرعاية الصحية [5]. ومن المدهش أنه في الولايات المتحدة، التي تعد رائدة في تقنيات الصحة المتقدمة، من الممرضات لم يكن لديهن علم بالتقنيات المعتمدة على الذكاء الاصطناعي المستخدمة في الرعاية الصحية [5]، وفقط تلقى عدد من طلاب التمريض تعليمًا متعلقًا بالذكاء الاصطناعي خلال دراستهم الجامعية [6]. علاوة على ذلك، أظهرت الدراسات السابقة [7، 8] أن عددًا قليلًا نسبيًا من الدراسات تقيم تصورات الممرضين أو قبولهم للتكنولوجيا الجديدة في الرعاية الصحية. على الرغم من أن الممرضين وطلاب التمريض لديهم توقعات عالية بشأن فائدة وكفاءة التكنولوجيا المعتمدة على الذكاء الاصطناعي في الرعاية الصحية، لم يتم إجراء أي بحث لتحديد كيف يدركون أو يشعرون أو ينوون استخدام التكنولوجيا المعتمدة على الذكاء الاصطناعي في مجال التمريض.
إن تصورات الممرضين وطلاب التمريض، وقبولهم، واستخدامهم للتكنولوجيا الجديدة مهمة بشكل خاص بسبب (أ) تنوع الأنظمة، بما في ذلك التكنولوجيا المعتمدة على الذكاء الاصطناعي في الرعاية الصحية، التي يستخدمها الممرضون [2،3] و(ب) الممرضون هم مقدمو الرعاية الصحية الرئيسيون في رعاية المرضى [9، 10]. المستخدمون المحتملون للتكنولوجيا المعتمدة على الذكاء الاصطناعي، الممرضون وطلاب التمريض، في وضع فريد يمكنهم من التأثير وقيادة تطبيق الذكاء الاصطناعي في صناعة التمريض [11]. لذلك، من الضروري إظهار كيف يفهم المستخدمون ويتبنون التكنولوجيا الجديدة، مثل التكنولوجيا المعتمدة على الذكاء الاصطناعي في الرعاية الصحية [6].
نموذج قبول التكنولوجيا (TAM) هو أحد أكثر نماذج البحث شعبية للتنبؤ بالاستخدام فيما يتعلق بقبول التكنولوجيا الجديدة ونية استخدامها في الرعاية الصحية المحددة [12]، مثل الممرضات [13] والمرضى [14]. يقدم نموذج TAM المنفعة المدركة، وسهولة الاستخدام المدركة، والمواقف تجاه التكنولوجيا الجديدة كعوامل متنبئة بنية الاستخدام. وفقًا لديفيس وآخرين [15]، فإن نية الاستخدام مرتبطة مباشرة بموقف الفرد. كما أن نية الاستخدام مرتبطة أيضًا بالمنفعة المدركة وسهولة الاستخدام. يتم التنبؤ بالموقف.
تُحدد الفائدة المدركة من خلال سهولة الاستخدام المدركة في التكنولوجيا الجديدة. تفترض نموذج قبول التكنولوجيا (TAM) أن إدراك التكنولوجيا الجديدة يؤدي إلى قبولها، مما ينتج عنه الاستخدام الفعلي.
كانت العواطف مؤشراً مهماً لتصور المخاطر ونية استخدام تقنيات جديدة، مثل التكنولوجيا المعتمدة على الذكاء الاصطناعي. بدون معرفة متخصصة بتكنولوجيا الذكاء الاصطناعي في الرعاية الصحية، قد تكون عواطف طلاب التمريض، مثل التصورات السلبية والقلق بشأن استخدام التكنولوجيا المعتمدة على الذكاء الاصطناعي، عوامل وسيطة مهمة في حكمهم على ما إذا كانوا سيستخدمون هذه التكنولوجيا. ومع ذلك، لم تتحقق الدراسات الحالية من أن تصور التكنولوجيا المعتمدة على الذكاء الاصطناعي له وظيفة وسيطة في العلاقة بين المتغيرات النفسية مثل القلق ونية استخدام التكنولوجيا المعتمدة على الذكاء الاصطناعي. لذلك، درست هذه الدراسة التأثيرات الوسيطة للعواطف مثل القلق بشأن الذكاء الاصطناعي وموقف القبول على العلاقة بين التصور ونية استخدام تقنيات الذكاء الاصطناعي بين طلاب التمريض. ستساعد النتائج في تعزيز قبول تقنيات الذكاء الاصطناعي بين طلاب التمريض، الذين هم محور الثورة الصناعية الرابعة، وستقدم بيانات أساسية لأبحاث أكثر اتساعاً حول التصورات تجاه الذكاء الاصطناعي.

طرق

تصميم

كانت هذه دراسة وصفية لتحديد التأثيرات الوسيطة المزدوجة للقلق وموقف القبول تجاه الذكاء الاصطناعي على العلاقة بين العوامل التي تؤثر على إدراك طلاب التمريض ونواياهم لاستخدام تكنولوجيا الذكاء الاصطناعي. تم تصميم نموذج الدراسة استنادًا إلى نموذج ماكرو PROCESS 6 لهايز.

المشاركون

تم تجنيد المشاركين من جامعتين تقعان في منطقتين من كوريا الجنوبية باستخدام عينة ملائمة. شمل المشاركون طلابًا في السنة الثانية إلى الرابعة في كلية التمريض في محافظة جيونغجي ومدينة غوانغجو الحضرية، كوريا الجنوبية، مع معايير الاختيار التالية: (1) فهمهم لغرض هذه الدراسة وتقديم موافقة خطية للمشاركة، (2) أن تكون لديهم تجارب عملية ضمن مسار علوم التمريض. حصلنا على إذن لتجنيد المشاركين من رئيس كلية التمريض من الجامعتين في محافظة جي ومدينة غوانغجو الحضرية، كوريا الجنوبية. قمنا بنشر إعلان تجنيد على لوحة الإعلانات الخاصة بالتمريض على الصفحة الرئيسية للجامعة لمدة أسبوعين. ثم تم استخدام نماذج جوجل لتوزيع وجمع الاستبيانات. تم توجيه المشاركين لإكمال استبيان ذاتي بعد تقديم موافقة مستنيرة للدراسة عبر الإنترنت. تم جمع البيانات من 5 يناير إلى 16 يناير 2023. تم تحديد حجم العينة باستخدام
برنامج G*Power (الإصدار 3.1.7، جامعة هاينريش هاينه، ألمانيا). بالنسبة لتحليل الانحدار، استنادًا إلى حجم التأثير 0.15، مستوى الدلالة ( ) من 0.05 ، القوة الإحصائية 0.90 ، وتم حساب الحد الأدنى لحجم العينة كـ 141 مع تسعة متنبئين عشوائيين (خمسة خصائص عامة، إدراك الذكاء الاصطناعي، القلق بشأن الذكاء الاصطناعي، المواقف تجاه قبول الذكاء الاصطناعي، ونية استخدام الذكاء الاصطناعي). قمنا بتوزيع الاستبيانات على 183 طالبًا للتعويض عن الانسحابات. بعد استبعاد ثلاث استجابات غير صادقة، كان لدينا 180 استبيانًا في التحليل النهائي (معدل الانسحاب ).

القياسات

تصور الذكاء الاصطناعي

قمنا بقياس إدراك الذكاء الاصطناعي باستخدام أداة إدراك الذكاء الاصطناعي التي طورتها شينرز وآخرون [18]. تتكون الأداة من عشرة عناصر في فئتين (الاستعداد للذكاء الاصطناعي والأثر المهني للذكاء الاصطناعي). استخدمنا مقياس ليكرت من خمس نقاط من 1 = “أعارض بشدة” إلى “أوافق بشدة.” كلما ارتفع الدرجة، زادت النظرة الإيجابية للذكاء الاصطناعي. كرونباخ كانت درجة الاستعداد للذكاء الاصطناعي 0.63، وتأثير الذكاء الاصطناعي المهني 0.83 في الدراسة الأصلية [15] و0.65 و0.74، على التوالي، في هذه الدراسة.

القلق بشأن الذكاء الاصطناعي

استخدمنا عناصر من نموذج قبول التكنولوجيا (TAM) الذي طوره فينكاتيش وآخرون [19] لقياس القلق. قمنا بتعديل مصطلح “التكنولوجيا” و/أو “النظام” إلى “التكنولوجيا المعتمدة على الذكاء الاصطناعي في بيئة الرعاية الصحية” في هذه الدراسة. تتكون المقياس من أربعة عناصر تتعلق بالقلق بشأن استخدام التقنيات المعتمدة على الذكاء الاصطناعي. استخدمنا مقياس ليكرت من خمس نقاط ( “أعارض بشدة” إلى “أوافق بشدة”). كلما ارتفع الدرجة، زاد مستوى القلق بشأن استخدام التكنولوجيا المعتمدة على الذكاء الاصطناعي. كرونباخ كانت قيمة الأداة 0.87 في دراسة سابقة [16] و0.87 في هذه الدراسة.

موقف القبول تجاه الذكاء الاصطناعي

استخدمنا عناصر من نموذج قبول التكنولوجيا (TAM) [19] لقياس مواقف القبول تجاه التقنيات المعتمدة على الذكاء الاصطناعي. يتكون الأداة من أربعة عناصر تتعلق بمواقف القبول تجاه التقنيات المعتمدة على الذكاء الاصطناعي، وقام المشاركون بتقييم كل عنصر على مقياس ليكرت المكون من خمس نقاط. “أوافق بشدة” إلى 5 = “أعارض بشدة”). كلما زادت الدرجة، زادت مستوى قبول الموقف تجاه. كرونباخ كانت قيمة الأداة 0.82 في دراسة سابقة [19] و0.90 في هذه الدراسة.

نية استخدام الذكاء الاصطناعي

استخدمنا عناصر من نموذج قبول التكنولوجيا (TAM) [19] لقياس النية لاستخدام التكنولوجيا المعتمدة على الذكاء الاصطناعي. تتكون الأداة من ثلاثة عناصر تتعلق بالنية لاستخدام التكنولوجيا المعتمدة على الذكاء الاصطناعي، وقام المشاركون بتقييم كل عنصر على مقياس ليكرت المكون من خمس نقاط (1
“أعارض بشدة” إلى “أوافق بشدة”). كلما ارتفع الدرجة، زادت النية لاستخدام الذكاء الاصطناعي. كرونباخ كانت قيمة الأداة 0.69 في دراسة سابقة [19] و0.68 في هذه الدراسة.

الاعتبارات الأخلاقية

تمت الموافقة على الدراسة من قبل مجلس مراجعة المؤسسات في جامعة غوانغجو (رقم 2-1041318-A-N-01-202211-HR-027-01). تم الحصول على موافقة خطية مستنيرة من جميع المشاركين بعد شرح الغرض وإجراءات هذه الدراسة لهم. تم طمأنة المشاركين بأنه لن تكون هناك أي عواقب سلبية إذا لم يشاركوا. تم ملء الاستبيانات بشكل مجهول، ولم يتم جمع أي معلومات شخصية قابلة للتحديد.

تحليل البيانات

تم إجراء تحليل البيانات باستخدام برنامج SPSS Statistics لنظام Windows، الإصدار 26.0 (SPSS Inc.، شيكاغو، إلينوي، الولايات المتحدة الأمريكية). تم تحليل الخصائص العامة للمشاركين باستخدام تحليل التكرار والإحصاءات الوصفية. تم تحليل درجات المتغيرات المقاسة وفقًا للخصائص العامة باستخدام اختبارات t وتحليل التباين الأحادي. تم إجراء اختبار بعد الحدث مع اختبار التكافؤ تلاه اختبار شيفيه. تم تحليل العلاقة بين المتغيرات باستخدام معامل ارتباط بيرسون. تم استخدام نموذج SPSS PROCESS Macro 6 [20] لاختبار تأثير القلق والموقف القابل للتقبل تجاه الذكاء الاصطناعي على العلاقة بين إدراك المشاركين ونية استخدام الذكاء الاصطناعي. للتحقق من دلالة التأثير الوسيط، تم استخراج 10,000 عينة من البوتستراب عند فترة الثقة (CI). يقلل أسلوب البوتستراب من الأخطاء في التحقق الحالي باستخدام اختبار سوبل ولا يتطلب عينة كبيرة أو افتراض استقلالية معاملات المسار؛ لذلك، يتم استخدامه على نطاق واسع للتحقق من التأثيرات الوسيطة [21]. قبل اختبار التأثير الوسيط، تم تأكيد التعدد الخطي بين المتغيرات المستقلة باستخدام التسامح وعامل تضخم التباين (VIF)، وتم تأكيد الارتباط الذاتي للمتغيرات التابعة باستخدام اختبار دوربين-واتسون.

النتائج

الفروق في المتغيرات حسب الخصائص الديموغرافية

كان المشاركون 154 امرأة ). كان معظمهم في السنة الثانية ( )، تليها في الثالث ( ) والسنة الرابعة ( ). كانت المجموعة تضم 50 طالبًا ( ) مع التعليم المتعلق بالذكاء الاصطناعي. أظهر تحليل المتغيرات المقاسة وفقًا للخصائص الديموغرافية فرقًا كبيرًا حسب الجنس: كانت مستويات القلق لدى النساء أعلى من الرجال ( ).
وفقًا للدرجة، كان لدى طلاب السنة الثانية إدراك أعلى بشكل ملحوظ لـ من طلاب السنة الثالثة والرابعة. طلاب السنة الثانية
الجدول 1 الفروقات في المتغيرات المقاسة حسب الخصائص الديموغرافية )
خاصية فئة (%) أو SD تصور الذكاء الاصطناعي القلق بشأن الذكاء الاصطناعي مواقف القبول تجاه الذكاء الاصطناعي نية استخدام الذكاء الاصطناعي
ص أو خ (ص) صحيح أو خطأ (ص) صحيح أو خطأ (ص) صحيح أو خطأ (ص)
العمر (بالسنوات)
جنس رجال ٢٦ (١٤.٤) 0.055 ٤.٠٦٤ 1.266 1.542
نساء 154 (85.6) (0.956) (< 0.001) (0.207) (0.126)
درجة سنة 80 (44.4) ٦.٥١٠ 1.606 ٤.٥٩١ 0.823
سنة 54 (30.0) (0.002) (0.204) (0.011) (0.441)
سنة ٤٦ (٢٥.٦) ب، ج < أ
تجربة التعليم بالذكاء الاصطناعي نعم 50 (27.8) 2.076 -2.715 ٣.٤٢٧ 1.755
لا ١٣٠ (٧٢.٢) (0.039) (0.007) (0.001) (0.081)
يعني؛ الانحراف المعياري؛ الذكاء الاصطناعي
الجدول 2 الإحصائيات الوصفية للمتغيرات المقاسة )
متغير نطاق من ماكس م SD
تصور الذكاء الاصطناعي 1.50 ٤.٤٠
القلق بشأن الذكاء الاصطناعي 1.00 ٥.٠٠
موقف القبول تجاه الذكاء الاصطناعي 1.00 ٥.٠٠
نية استخدام الذكاء الاصطناعي 2.00 ٥.٠٠
الذكاء الاصطناعي؛ يعني؛ الانحراف المعياري
الجدول 3 الارتباطات بين المتغيرات المقاسة )
متغير تصور الذكاء الاصطناعي القلق بشأن الذكاء الاصطناعي موقف القبول تجاه الذكاء الاصطناعي نية استخدام الذكاء الاصطناعي
ر (ب) ر (ب) ر (ب) ر (ب)
تصور الذكاء الاصطناعي 1
القلق بشأن الذكاء الاصطناعي -0.27 (< 0.001) 1
موقف القبول تجاه الذكاء الاصطناعي 0.44 (< 0.001) -0.36 (< 0.001) 1
نية استخدام الذكاء الاصطناعي 0.38(<0.001) -0.28 (< 0.001) 0.43 (<0.001) 1
الذكاء الاصطناعي
كان لديهم موقف قبول أعلى بشكل ملحوظ تجاه الذكاء الاصطناعي مقارنةً بالطلاب في السنة الثالثة ). كان لدى الطلاب الذين لديهم خبرة في تعليم الذكاء الاصطناعي إدراك أعلى بشكل ملحوظ للذكاء الاصطناعي ( ) وموقف القبول تجاه الذكاء الاصطناعي ( ) وانخفاض القلق بشكل ملحوظ ( ) من أولئك الذين ليس لديهم تعليم في الذكاء الاصطناعي. تم إجراء اختبارات t وتحليل التباين الأحادي لقياس الفرق في نية استخدام الذكاء الاصطناعي وفقًا للمتغيرات الديموغرافية مثل الجنس، والصف، وتجربة التعليم في الذكاء الاصطناعي لموضوعات الدراسة. ومع ذلك، لم يكن الفرق ذا دلالة إحصائية، لذا لم تأخذ هذه الدراسة في الاعتبار الفروق بين المجموعات في نية استخدام الذكاء الاصطناعي (الجدول 1).

الإدراك، القلق، موقف القبول، ونية استخدام الذكاء الاصطناعي

متوسط الدرجات (من 5) لتصور المشاركين للذكاء الاصطناعي كان ؛ القلق بشأن الذكاء الاصطناعي، ؛
موقف القبول تجاه الذكاء الاصطناعي، ; ونية استخدام الذكاء الاصطناعي، (الجدول 2).

العلاقات بين الإدراك، والقلق، وموقف القبول، ونية استخدام الذكاء الاصطناعي

تظهر الجدول 3 العلاقات بين الإدراك، والقلق، وموقف القبول تجاه الذكاء الاصطناعي، ونية استخدام الذكاء الاصطناعي. كان للإدراك علاقة إيجابية كبيرة مع موقف القبول تجاه الذكاء الاصطناعي. نية استخدام الذكاء الاصطناعي ) ، وارتباط سلبي كبير مع القلق بشأن الذكاء الاصطناعي ( كانت القلق بشأن الذكاء الاصطناعي مرتبطًا سلبًا بشكل كبير بموقف القبول تجاه الذكاء الاصطناعي ) ونية استخدام الذكاء الاصطناعي ( كان لموقف القبول تجاه الذكاء الاصطناعي ارتباط إيجابي كبير مع نية استخدام الذكاء الاصطناعي. ; الجدول 3).

التأثير الوسيط المزدوج للقلق بشأن الذكاء الاصطناعي وموقف القبول تجاه الذكاء الاصطناعي

تم التحقق من افتراضات تحليل الانحدار قبل تحليل التأثيرات الوسيطة. تم فحص مخطط P-P لتحديد طبيعة الخطأ. كانت المتبقيات قريبة من خط، يؤكد التوزيع الطبيعي. كشف مخطط التشتت للبقايا عن توزيع متساوٍ حول 0، مما يؤكد تساوي التباين. كانت إحصائية دوربين-واتسون قريبة من 2 عند 2.240، مما يشير إلى غياب الارتباط الذاتي بين البقايا. كان VIF أقل من 10، عند 1.000-1.346، مما يؤكد غياب التعدد الخطي. وبالتالي، فإن نموذج الدراسة استوفى جميع افتراضات تحليل الانحدار – خطية البقايا، الطبيعية، تساوي التباين، والاستقلال.
لفحص التأثيرات الوسيطة للقلق بشأن الذكاء الاصطناعي وموقف القبول تجاه الذكاء الاصطناعي على العلاقة بين الإدراك والنية لاستخدام الذكاء الاصطناعي، تم إجراء تحليلات باستخدام نموذج PROCESS Macro 6. يتكون النموذج من متغيرات مستقلة (X: إدراك الذكاء الاصطناعي)، ومتغير تابع (Y: النية لاستخدام الذكاء الاصطناعي)، واثنين من المتغيرات الوسيطة (M1: القلق بشأن الذكاء الاصطناعي، M2: موقف القبول تجاه الذكاء الاصطناعي).
الجدول 4 التأثيرات المباشرة للقلق ومواقف القبول على العلاقة بين إدراك واستخدام الذكاء الاصطناعي )
متغير ب SE ت LLCI ULCI
فترة الثقة 95% فترة الثقة 95%
تصور الذكاء الاصطناعي (X) القلق بشأن الذكاء الاصطناعي (M1) -0.420 0.111 ٣.٧٧٣ < 0.001 -0.639 -0.200
تصور مواقف القبول تجاه الذكاء الاصطناعي (M2) 0.541 0.100 ٥.٤٢٤ < 0.001 0.344 0.738
القلق بشأن الذكاء الاصطناعي (M1) مواقف القبول تجاه الذكاء الاصطناعي (M2) -0.256 0.065 ٣.٩٥٩ < 0.001 -0.384 -0.129
تصور نية استخدام الذكاء الاصطناعي (Y) 0.280 0.091 ٣.٠٦٨ 0.002 0.100 0.460
القلق بشأن نية الاستخدام -0.091 0.057 1.593 0.113 -0.204 0.022
مواقف القبول تجاه الذكاء الاصطناعي (M2) نية استخدام الذكاء الاصطناعي (Y) 0.246 0.064 ٣.٨٥٦ <0.001 0.120 0.371
الذكاء الاصطناعي؛ interval الثقة المستوى الأدنى؛ فترة الثقة العليا؛ خطأ معياري
الجدول 5 التأثيرات غير المباشرة للقلق ومواقف القبول على العلاقة بين إدراك واستخدام الذكاء الاصطناعي )
متغير أثر بوت SE بوت LLCI بوت ULCI
فترة الثقة 95% 95% ثقة
تصور القلق بشأن الذكاء الاصطناعي (M1) نية استخدام الذكاء الاصطناعي (Y) 0.038 0.027 -0.007 0.098
تصور مواقف القبول تجاه الذكاء الاصطناعي (M2) نية الاستخدام 0.133 0.049 0.047 0.239
تصور القلق بشأن مواقف القبول تجاه الذكاء الاصطناعي (M2) نية الاستخدام 0.026 0.016 0.004 0.066
إجمالي 0.198 0.058 0.095 0.322
AI=الذكاء الاصطناعي؛ LLCI=فترة الثقة المنخفضة؛ ULCI=فترة الثقة العليا
فترة الثقة للمستوى؛ فترة الثقة؛ خطأ معياري
يوضح الجدول 4 التأثيرات المباشرة للقلق بشأن الذكاء الاصطناعي والموقف القابل للتقبل تجاه الذكاء الاصطناعي على العلاقة بين إدراك الذكاء الاصطناعي ونية استخدامه. كان لإدراك الذكاء الاصطناعي تأثير سلبي كبير على القلق بشأن الذكاء الاصطناعي. ). كان لتصور الذكاء الاصطناعي تأثير إيجابي كبير ( )، بينما كان للقلق بشأن الذكاء الاصطناعي تأثير سلبي كبير ( ، ) على موقف القبول تجاه الذكاء الاصطناعي. كان لتصور وموقف القبول تجاه الذكاء الاصطناعي تأثيرات إيجابية كبيرة ( ، على التوالي) على نية استخدام الذكاء الاصطناعي. لتأكيد التأثيرات الوسيطة للقلق بشأن الذكاء الاصطناعي والموقف الإيجابي تجاه الذكاء الاصطناعي، يجب أن يكون تأثير كل من المتغير المستقل على المتغير التابع وتأثير المتغير المستقل على الوسيط كبيرين، ويجب أن يتقلص تأثير المتغير المستقل على المتغير التابع بعد إضافة الوسيط [20]. في نموذج دراستنا، تم تقليل تأثير إدراك الذكاء الاصطناعي على نية استخدام الذكاء الاصطناعي بعد إضافة القلق بشأن الذكاء الاصطناعي والموقف الإيجابي تجاه الذكاء الاصطناعي ( ) مقارنةً بالتأثير بدون الوسيط ( ،
)، مما يؤكد أن القلق والموقف الإيجابي تجاه الذكاء الاصطناعي هما وسيطان في هذه العلاقة.
يوضح الجدول 5 التأثير غير المباشر للمتغير المستقل على المتغيرات التابعة من خلال الوساطة بواسطة القلق والموقف من قبول الذكاء الاصطناعي. كان حجم التأثير الوسيط الكلي 0.198 (95% CI [0.095، 0.332])، وهو تأثير ذو دلالة، كما يتضح من غياب 0 في الـ ت bootstrap CI. في تحليل التأثيرات الوسيطة البسيطة، حجم التأثير غير المباشر للقلق بشأن الذكاء الاصطناعي على العلاقة بين الإدراك والنية لاستخدامه كان ، وهو ما لم يكن له دلالة حيث كان هناك 0 في حجم التأثير غير المباشر لموقف القبول تجاه الذكاء الاصطناعي على العلاقة بين الإدراك والنية للاستخدام (X ) كانت 0.133 ( [ ])، وهو ما كان له دلالة كما يتضح من غياب 0 في CI. في نموذج التأثير الوسيط المزدوج، حيث وسّطت القلق والموقف الإيجابي تجاه الذكاء الاصطناعي العلاقة بين الإدراك ونية الاستخدام. M1 م2 Y)، كانت حجم التأثير 0.026 (95% CI [0.004، 0.066])؛ وكان هذا ذا دلالة كما يتضح من غياب 0 في CI (الشكل 1).

نقاش

في هذه الدراسة، استكشفنا التأثيرات الوسيطة للقلق بشأن الذكاء الاصطناعي والموقف القابل للتقبل تجاه الذكاء الاصطناعي على العلاقة بين إدراك الذكاء الاصطناعي ونية استخدام الذكاء الاصطناعي في ممارسة التمريض. هدفنا هو وضع أساس لمبادرات تشجع على استخدام الذكاء الاصطناعي بين طلاب التمريض من خلال تحليل العلاقات المتبادلة بين القلق بشأن الذكاء الاصطناعي [17]، وإدراك الذكاء الاصطناعي، والموقف القابل للتقبل تجاه الذكاء الاصطناعي [22]، والتي تم تحديدها جميعًا كعوامل مؤثرة في تشكيل النية لاستخدام الذكاء الاصطناعي.
كان متوسط درجة إدراك الذكاء الاصطناعي بين طلاب التمريض ، مما يعكس النتائج في مجموعات مماثلة من المهنيين في الرعاية الصحية [18] وطلاب التمريض [22]. تشير هذه الشبه إلى أن توقعات الطلاب بشأن الذكاء الاصطناعي في الرعاية الصحية – لا سيما إمكانيته في تخفيف أعباء المهام الروتينية وتعزيز جودة رعاية التمريض [2-4] – قد شكلت بشكل كبير
الشكل 1 التأثيرات المباشرة للقلق ومواقف القبول على العلاقة بين إدراك واستخدام الذكاء الاصطناعي AI=الذكاء الاصطناعي
تصوراتهم. كان متوسط مستوى القلق بشأن الذكاء الاصطناعي ، وهو رقم مشابه لذلك المبلغ عنه في طلاب البكالوريوس في الصحة [23]. ومن الجدير بالذكر أن نسبة صغيرة فقط (27.8%) من المشاركين لدينا قد تعرضوا لتعليم متعلق بالذكاء الاصطناعي. تشير الأبحاث السابقة إلى وجود فجوة بين الحاجة المدركة لتعليم الذكاء الاصطناعي والفائدة العملية للتدريب الحالي في إعداد الطلاب لتبني الذكاء الاصطناعي في الرعاية الصحية [6، 24]. قد تسهم هذه الفجوة التعليمية في زيادة مستويات القلق بين طلاب التمريض، الناتجة عن عدم اليقين بشأن تأثير الذكاء الاصطناعي على مهنتهم [4، 5].
من حيث موقف القبول ونية استخدام الذكاء الاصطناعي، حصل طلاب التمريض على و ، على التوالي. هذه الأرقام أعلى من تلك التي لوحظت بين طلاب التخصصات الصحية [23]. يمكن أن يُعزى التباين في المواقف تجاه اعتماد الذكاء الاصطناعي إلى عدة عوامل، بما في ذلك العمر، الجنس، السياقات المحددة لاستخدام الذكاء الاصطناعي [25]، السمات الشخصية الفردية والخلفيات الثقافية [26]. علاوة على ذلك، قد يفسر التركيبة السكانية الأصغر سناً في دراستنا معدلات القبول الأعلى للذكاء الاصطناعي، ربما بسبب توافق أكبر مع التكنولوجيا والابتكار [25]. بالإضافة إلى ذلك، قد توضح الأبحاث التي تشير إلى تقييم الممرضات الإيجابي للأنظمة الروبوتية في الرعاية الصحية [3] وتوقعاتهن العالية من هذه الأنظمة لتحسين جودة رعاية التمريض [2-4] لماذا ينوي طلاب التمريض بقوة استخدام الذكاء الاصطناعي.
لقد استكشفنا أيضًا كيف أن القلق بشأن الذكاء الاصطناعي والموقف الإيجابي تجاه الذكاء الاصطناعي يتوسطان العلاقة بين إدراك الذكاء الاصطناعي ونية استخدامه. لاحظنا أن الإدراك الأكثر إيجابية للذكاء الاصطناعي يرتبط بانخفاض القلق. تتماشى هذه الاتجاه مع الفكرة القائلة بأن التوقعات الإيجابية وفهم دور الذكاء الاصطناعي في الرعاية الصحية يمكن أن يخفف من المخاوف والقلق. علاوة على ذلك، يؤدي تحسين الإدراك للذكاء الاصطناعي إلى موقف أكثر قبولًا تجاه استخدامه.
تتوافق هذه النتيجة مع الأبحاث السابقة التي تشير إلى أن زيادة الوعي بالتطبيقات العملية للذكاء الاصطناعي في العمليات الصحية اليومية تعزز من قبوله [27].
علاوة على ذلك، وجدنا أن موقف القبول تجاه الذكاء الاصطناعي يلعب دورًا وساطيًا مزدوجًا. فهو لا يؤثر فقط بشكل مباشر على نية استخدام الذكاء الاصطناعي، بل يؤثر أيضًا بشكل غير مباشر من خلال تعديل مستويات القلق. وهذا يبرز أهمية المواقف الإيجابية في تعزيز نية استخدام الذكاء الاصطناعي في الرعاية الصحية. يمكن أن تؤدي التصورات السلبية، مثل رؤية الذكاء الاصطناعي كتهديد لأمان الوظائف، إلى موقف قبول أكثر سلبية وبالتالي إلى انخفاض نية استخدام الذكاء الاصطناعي.
من منظور تطبيق النتائج في تعليم التمريض وممارسة التمريض السريري، يبرز هذه الدراسة الدور الحاسم لكليهما في استغلال إمكانيات الذكاء الاصطناعي في الرعاية الصحية. تؤكد على الحاجة إلى تعليم شامل حول الذكاء الاصطناعي ضمن منهج التمريض لسد الفجوة التعليمية وتقليل القلق بشأن الذكاء الاصطناعي بين طلاب التمريض. يجب أن يغطي الإطار التعليمي الجوانب التقنية للذكاء الاصطناعي وتطبيقاته العملية في الرعاية الصحية لتعزيز وجهة نظر إيجابية وموقف قبول تجاه الذكاء الاصطناعي. علاوة على ذلك، يمكن أن تتقدم ممارسة التمريض السريري من خلال تعزيز ثقافة صديقة للذكاء الاصطناعي، من خلال إظهار الاستخدام الناجح للذكاء الاصطناعي في المهام الروتينية للتمريض ورعاية المرضى لتخفيف المخاوف وزيادة الثقة في تقنيات الذكاء الاصطناعي. من خلال ورش العمل المحددة، والندوات، والجلسات العملية التي تعرض فوائد الذكاء الاصطناعي، بما في ذلك تقليل عبء العمل وتحسين جودة الرعاية، يمكن تحقيق فهم أفضل وموقف قبول تجاه الذكاء الاصطناعي بين طلاب التمريض والمهنيين. قد يؤدي هذا النهج إلى استخدام أوسع وأكثر فعالية للذكاء الاصطناعي في الرعاية الصحية، مما ينتج عنه نتائج أفضل للمرضى وممارسات تمريض أكثر كفاءة.
في الختام، تؤكد نتائجنا على الدور الحاسم للتدخلات التعليمية التي تعزز الفهم والقبول للذكاء الاصطناعي بين طلاب التمريض. مثل هذه
يمكن أن تؤثر المبادرات بشكل إيجابي على نيتهم في استخدام الذكاء الاصطناعي في الرعاية الصحية، مما قد يؤدي بالتالي إلى تحسين نتائج الرعاية الصحية.
ومع ذلك، فإن دراستنا ليست خالية من القيود. التصميم العرضي يمنعنا من استنتاج العلاقات السببية. يجب إجراء أبحاث مستقبلية، ويفضل أن تكون طولية. علاوة على ذلك، فإن نقص الخبرة المباشرة مع تقنيات الذكاء الاصطناعي بين معظم المشاركين يشير إلى الحاجة إلى دراسات تشمل الطلاب الذين لديهم تعرض عملي للذكاء الاصطناعي في بيئات الرعاية الصحية.

الخاتمة

الإدراك والقلق والقبول تجاه الذكاء الاصطناعي هي عوامل مهمة تؤثر على نية استخدام الذكاء الاصطناعي، وللقلق والقبول تأثير وساطة مزدوج على العلاقة بين إدراك واستخدام الذكاء الاصطناعي بين طلاب التمريض. يجب على مؤسسات التعليم التمريضي تقديم تعليم منهجي متعلق بالذكاء الاصطناعي لتحسين إدراك طلاب التمريض للذكاء الاصطناعي، مما يقلل من قلقهم بشأنه ويحول قبولهم له بشكل إيجابي، مما يعزز في النهاية نيتهم لاستخدامه. لذلك، هناك حاجة ملحة لبرامج التعليم التمريضي التي تعزز كفاءات الذكاء الاصطناعي لت培养 ممرضين قادرين على التكيف بشكل استباقي مع بيئة الرعاية الصحية المتطورة بسرعة خلال الثورة الصناعية الرابعة.

الاختصارات

الذكاء الاصطناعي الذكاء الاصطناعي
تام نموذج قبول التكنولوجيا
VIF عامل تضخم التباين
كلور فترة الثقة

شكر وتقدير

غير قابل للتطبيق.

مساهمات المؤلفين

ساهمت KAC في مفهوم وتصميم الدراسة، وجمع وتحليل البيانات، وصياغة المخطوطة. ساهم YHS في مفهوم وتصميم الدراسة، والتحليل الإحصائي، وتفسير النتائج. لقد قرأ جميع المؤلفين ووافقوا على النسخة النهائية من المخطوطة.

تمويل

تم إجراء هذه الدراسة بتمويل من جامعة غوانغجو في عام 2024.

توفر البيانات

تتوفر مجموعات البيانات المستخدمة و/أو التي تم تحليلها خلال هذه الدراسة من المؤلف المراسل عند الطلب المعقول.

الإعلانات

وافق مجلس المراجعة المؤسسية (2-1041318-A-N-01-202211-HR-027-01) في جامعة غوانغجو على هذه الدراسة. حصلنا على موافقة خطية مستنيرة من جميع المشاركين وطبقنا جميع الطرق بناءً على الإرشادات واللوائح ذات الصلة.
غير قابل للتطبيق.

المصالح المتنافسة

يعلن المؤلفون عدم وجود مصالح متنافسة.
تاريخ الاستلام: 27 أغسطس 2023 / تاريخ القبول: 21 مارس 2024
نُشر على الإنترنت: 28 مارس 2024

References

  1. Davenport T, Kalakota R. The potential for artificial intelligence in healthcare. Future Healthc J. 2019;6(2):94-8. https://doi.org/10.7861/futurehosp.6-2-94.
  2. Song YA, Kim HJ, Lee HK. Nursing, robotics, technological revolution: Robotics to support nursing work. J Korean Gerontol Nurs. 2018;20(S1):144-53. https:// doi.org/10.17079/jkgn.2018.20.s1.s144.
  3. Lee JY, Song YA, Jung JY, Kim HJ, Kim BR, Do HK, et al. Nurses’ needs for care robots in integrated nursing care services. J Adv Nurs. 2018;74(9):2094-105. https://doi.org/10.1111/jan.13711.
  4. Ronquillo CE, Peltonen LM, Pruinelli L, Chu CH, Bakken S, Beduschi A, et al. Artificial intelligence in nursing: priorities and opportunities from an international invitational think-tank of the nursing and Artificial Intelligence Leadership Collaborative. J Adv Nurs. 2021;77(9):3707-17. https://doi.org/10.1111/ jan. 14855.
  5. Swan BA. Assessing the knowledge and attitudes of registered nurses about artificial intelligence in nursing and health care. Nurs Econ. 2021;39(3):139-43.
  6. Kwak YH, Seo YH, Ahn JW. Nursing students’ intent to use AI-based healthcare technology: path analysis using the unified theory of acceptance and use of technology. Nurse Educ Today. 2022;119:105541. https://doi.org/10.1016/j. nedt.2022.105541.
  7. Carrington JM, Tiase VL. Nursing informatics year in review. Nurs Adm Q. 2013;37(2):136-43.
  8. Carrington JM. Summary of the nursing informatics year in review 2014. Nurs Adm Q. 2015;39(2):183-4.
  9. Carroll WM. The synthesis of nursing knowledge and predictive analytics. Nurs Manage. 2019;50(3):15-7. https://doi.org/10.1097/01. NUMA.0000553503.78274.f7.
  10. Buchanan C, Howitt ML, Wilson R, Booth RG, Risling T, Bamford M. Predicted influences of Artificial Intelligence on the domains of nursing: scoping review. JMIR Nurs. 2020;3(1):e23939. https://doi.org/10.2196/23939.
  11. McGrow K. Artificial intelligence: essentials for nursing. Nurs. 2019;49(9):46-9. https://doi.org/10.1097/01.NURSE.0000577716.57052.8d.
  12. Rahimi B, Nadri H, Afshar HL, Timpka T. A systematic review of the Technology Acceptance Model in Health Informatics. Appl Clin Inf. 2018;9(3):604-34. https://doi.org/10.1055/s-0038-1668091.
  13. Strudwick G. Predicting nurses’ use of healthcare technology using the technology acceptance model: an. Integr Rev Comput Inf Nurs 20153305189-198.
  14. Ahlan AR, Isma’eel AB. An overview of patient acceptance of health information technology in developing countries: a review and conceptual model. Int J Inf Syst Project Manage. 2015;3(01):29-48.
  15. Davis FD. Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Q. 1989;13:319-40. https://doi. org/10.2307/249008.
  16. Holden RJ, Asan O, Wozniak EM, Flynn KE, Scanlon MC. Nurses’ perceptions, acceptance, and use of a novel in-room pediatric ICU technology: testing an expanded technology acceptance model. BMC Med Inf Decis Mak. 2016;16:145. https://doi.org/10.1186/s12911-016-0388-y.
  17. Loewenstein GF, Weber EU, Hsee CK, Welch N. Risk as feelings. Psychol Bull. 2001;127(2):267-86. https://doi.org/10.1037/0033-2909.127.2.267.
  18. Shinners L, Grace S, Smith S, Stephens A. Exploring healthcare professionals’ perceptions of artificial intelligence: piloting the Shinners artificial intelligence perception tool. Digit Health. 2022;8:1-8. https://doi. org/10.1177/20552076221078110.
  19. Venkatesh V, Morris MG, Davis GB, Davis FD. User acceptance of information technology: toward a unified view. MIS Q. 2003;27(3):425-78. https://doi. org/10.2307/30036540.
  20. Hayes AF. An introduction to mediation, moderation, and conditional process analysis: a regression-based approach. New York, NY: Guilford; 2013.
  21. Han SJ. Effect of nursing organizational culture, organizational silence, and organizational commitment on the intention of retention among nurses: applying the PROCESS macro model 6. Korean J Occup Health Nurs. 2022;31(1):31-41. https://doi.org/10.5807/kjohn.2022.31.1.31.
  22. Seo YH, Cho KA. Influence of AI knowledge, perception, and acceptance attitude on nursing students’ intention to use AI-based healthcare technologies. J Korean Nurs Res. 2022;6(3):81-90. https://doi.org/10.34089/jknr.2022.6.3.81.
  23. Kim JM. Study on intention and attitude of using artificial intelligence technology in healthcare. J Converg Inf Technol. 2017;7(4):53-60. https://doi. org/10.22156/CS4SMB.2017.7.4.053.
  24. Sit C, Srinivasan R, Amlani A, Muthuswamy K, Azam A, Monzon L, et al. Attitudes and perceptions of UK medical students towards artificial intelligence and radiology: a multicentre survey. Insights Imaging. 2020;11(14):1-6. https://doi.org/10.1186/s13244-019-0830-7.
  25. Zhang B, Dafoe A. Artificial intelligence: American attitudes and trends. Available SSRN 3312874. 2019.
  26. Sindermann C, Yang H, Elhai JD, Yang S, Quan L, Li M, Montag C. Acceptance and Fear of Artificial Intelligence: associations with personality in a German and a Chinese sample. Discov Psychol. 2022;2(8). https://doi.org/10.1007/ s44202-022-00020-y.
  27. Ketikidis P, Dimitrovski T, Lazuras L, Bath PA. Acceptance of health information technology in health professionals: an application of the revised technology acceptance model. Health Inf J. 2012;18(2):124-34. https://doi. org/10.1177/1460458211435425.
  28. Labrague LJ, Aguilar-Rosales R, Yboa BC, Sabio JB, de los Santos JA. Student nurses’ attitudes, perceived utilization, and intention to adopt artificial intelligence (AI) technology in nursing practice: a cross-sectional study. Nurs Educ Today. 2023;73:103815. https://doi.org/10.1016/j.nepr.2023.103815.

ملاحظة الناشر

تظل شركة سبرينجر ناتشر محايدة فيما يتعلق بالمطالبات القضائية في الخرائط المنشورة والانتماءات المؤسسية.

  1. *المراسلات:
    يون هي سيو
    yseo017@naver.com
    ¹قسم التمريض، جامعة غوانغجو، 277، طريق هيو دوك، نام-غو، غوانغجو، كوريا الجنوبية
    قسم التمريض، جامعة أندونغ الوطنية، 1375، شارع جيونغدونغ، مدينة أندونغ، مقاطعة جيونغسانغبوك-do، كوريا الجنوبية

Journal: BMC Nursing, Volume: 23, Issue: 1
DOI: https://doi.org/10.1186/s12912-024-01887-z
PMID: https://pubmed.ncbi.nlm.nih.gov/38539198
Publication Date: 2024-03-28

Dual mediating effects of anxiety to use and acceptance attitude of artificial intelligence technology on the relationship between nursing students’ perception of and intention to use them: a descriptive study

Kyong Ah Cho (D and Yon Hee Seo2*®

Abstract

Background Artificial intelligence (AI)-based healthcare technologies are changing nurses’ roles and enhancing patient care. However, nursing students may not be aware of the benefits, may not be trained to use AI-based technologies in their practice, and could have ethical concerns about using them. This study was conducted to identify the dual mediating effects of anxiety to use and acceptance attitude toward AI on the relationship between perception of and intentions to use AI among nursing students in South Korea. Methods The research model followed the PROCESS Macro model 6 proposed by Hayes. The participants were 180 nursing students in Gyeonggi-do. Data were collected from January 5-16, 2023, using self-reported questionnaires. Data were analyzed using the SPSS/WIN 25.0 program, with independent t-tests, one-way analysis of variance, Pearson’s correlations, and Hayes’s PROCESS macro method for mediation. Results AI perception positively correlated with acceptance attitude ( ), intention to use AI ( , ) and negatively correlated with anxiety ( ). Anxiety about AI negatively correlated with an acceptance attitude toward AI ( ) and intentions to use AI ( ). Acceptance attitude toward Al positively correlated with intentions to use Al ( ). Anxiety about Al and acceptance attitude toward AI had a dual mediating effect on the relationship between AI perception and intentions to use AI. Conclusions It is necessary to develop systematic educational programs to improve the perception of AI. Thus, the competency and professionalism of nursing students regarding the use of AI in healthcare can be improved.

Keywords Artificial Intelligence, AI, Perception, Intention to use AI, Nursing student

Background

Artificial intelligence (AI) is a collective term for technologies that train computers to emulate human cognitive functions, such as inference, communication, learning, and decision-making. Areas of AI include robotic engineering, machine learning, deep learning, and natural language processing, and most of these technologies have immediate relevance to the healthcare field, but the specific processes and tasks they support vary widely [1]. In nursing, AI robotic systems can not only mitigate the burdens associated with routine and repetitive tasks, such as the measurement of vital signs, measuring intake and outputs, and position changing [2] but also establish a streamlined nursing system [2, 3]. AI-based technology enhances nurses’ practical competencies and improves patient health outcomes [4].
AI-based technology will revolutionize nursing and healthcare by enhancing health promotion and disease prevention, facilitating the development of personalized treatment plans, automating tasks, and fostering collaboration among healthcare professionals [5]. Surprisingly, in the United States, a leader in advanced health technologies, of nurses were unaware of AI-based technologies used in healthcare [5], and only of nursing students received AI-related education during their undergraduate studies [6]. Moreover, previous studies [7, 8] showed that relatively few studies assess nurses’ perceptions or acceptance of the novel technology in healthcare. Although nurses and nursing students have high expectations for the usefulness and efficiency of AI-based technology in healthcare, no research has been done to identify how they perceive, feel about, or intend to use AI-based technology in the nursing field.
Nurses and nursing students’ perceptions, acceptance, and use of the novel technology are particularly important because of (a) the variety of systems, including AIbased technology in healthcare, used by nurses [2,3] and (b) Nurses are key healthcare providers in the patient care [9, 10]. Potential users of AI-based technologies, nurses, and nursing students are uniquely positioned to influence and spearhead the application of AI in the nursing industry [11]. Thus, it is essential to show how users comprehend and adopt new technology, such as AI-based technology in healthcare [6].
The technology acceptance model (TAM) is one of the most popular research models to predict use regarding acceptance of the novel technology and intention to use it in specific healthcare [12], such as nurses [13] and patients [14]. The TAM presents perceived utility, perceived ease of use, and attitudes toward the new technology as predictors of the intent to use. According to Davis et al. [15], intention to use is directly related to an individual’s attitude. Intention to use is also related to perceived usefulness and ease of use. Attitude is predicted
by perceived usefulness, and perceived usefulness is predicted by perceived ease of use in the novel technology. TAM posits that the perception of the novel technology leads to its acceptance, which results in actual use [16].
Emotion was an important predictor of risk perception and intention to use new technologies, such as AI-based technology [17]. Without expert knowledge of AI-based technology in healthcare, nursing students’ emotions, such as negative perceptions and anxiety regarding using AI-based technology, could be important mediating factors in their judgment of whether to use AI-based technology. However, extant studies have not verified that the perception of the AI-based technology has a mediating function in the relationship between psychological variables such as anxiety and intention to use the AI-based technology. Therefore, this study examined the mediating effects of emotions such as anxiety about AI and attitude of acceptance on the relationship between perception of and intention to use AI technologies among nursing students. The findings will help promote acceptance of AI technologies among nursing students, who are pivotal in the fourth industrial revolution and will present foundational data for more expansive research on perceptions toward AI.

Methods

Design

This was a descriptive study to identify the dual mediating effects of anxiety and acceptance attitude of AI on the relationship between factors affecting nursing students’ perception of and intention to use AI technology. The study model was designed based on Hayes’s PROCESS macro model 6.

Participants

Participants from two universities located in two regions of South Korea were recruited using convenience sampling. The participants comprised students in the second to fourth year in nursing school in Gyeonggi province and Gwangju Metropolitan City, South Korea, with the following selection criteria: (1) they understand the purpose of this study and provide written consent for participation, (2) they have practicum experiences that are within the course of nursing science. We obtained permission for participant recruitment from the head of the nursing school from the two universities in G Province and Gwangju Metropolitan City, South Korea. We posted a recruitment note on the nursing notice board on the university homepage for two weeks. Then, Google Forms was used to distribute and collect the questionnaires. Participants were instructed to complete a self-report questionnaire after providing informed consent for the study online. Data were collected from January 5 to January 16, 2023. The sample size was determined using
G*Power software (version 3.1.7, Heinrich-Heine University, Germany). For the regression analysis, based on the effect size of 0.15 , significance level ( ) of 0.05 , statistical power of 0.90 , and nine arbitrary predictors (five general characteristics, perception of AI, anxiety about AI, acceptance attitudes toward AI, and intention to use AI), the minimum sample size was calculated as 141 . We distributed the questionnaires to 183 students to account for dropouts. After excluding three insincere responses, we had 180 questionnaires in the final analysis (dropout rate ).

Measurements

Perception of AI

We measured the perception of AI using the Shinners Artificial Intelligence Perception tool developed by Shinners et al. [18]. It comprises ten items in two categories (preparedness for AI and professional impact of AI). We used a five-point Likert scale from 1 = “strongly disagree” to “strongly agree.” The higher the score, the higher the positive perception of AI. Cronbach’s for preparedness for AI was 0.63 , and for professional impact of AI was 0.83 in the original study [15] and 0.65 and 0.74 , respectively, in this study.

Anxiety about AI

We used items from the Technology Acceptance Model (TAM) developed by Venkatesh et al. [19] to measure anxiety. We revised the term “technology” and/or “system” to “AI-based technology within the healthcare setting” in this study. The scale comprises four items on anxiety regarding the use of AI-based technologies. We used a five-point Likert scale ( “strongly disagree” to “strongly agree”). The higher the score, the higher the anxiety level regarding using AI-based technology. Cronbach’s of the tool was 0.87 in a previous study [16] and 0.87 in this study.

Acceptance attitude toward AI

We used items from the TAM [19] to measure acceptance attitudes toward AI-based technologies. The tool comprises four items on acceptance attitudes toward AI-based technologies, and participants rated each item on a five-point Likert scale ( “strongly disagree” to 5 = “strongly agree”). The higher the score, the higher the level of acceptance attitude toward. Cronbach’s of the tool was 0.82 in a previous study [19] and 0.90 in this study.

Intention to use the AI

We used items from the TAM [19] to measure intention to use AI-based technology. The tool comprises three items on intention to use AI-based technology, and participants rated each item on a five-point Likert scale (1
“strongly disagree” to “strongly agree”). The higher the score, the higher the intention to use AI. Cronbach’s of the tool was 0.69 in a previous study [19] and 0.68 in this study.

Ethical considerations

The study was approved by the Institutional Review Board of Gwangju University (no. 2-1041318-A-N-01-202211-HR-027-01). Written informed consent was obtained from all participants after the purpose and procedure of this study were explained to them. Participants were assured that there would be no disadvantages if they did not participate. The questionnaires were completed anonymously, and no personally identifiable information was collected.

Data analysis

Data analysis was performed using SPSS Statistics for Windows, version 26.0 (SPSS Inc., Chicago, Ill., USA). Participants’ general characteristics were analyzed using frequency analysis and descriptive statistics. The measured variable scores according to general characteristics were analyzed using t-tests and one-way analysis of variance. A post-hoc test was performed with an equivalence test followed by Scheffé’s. The correlation between variables was analyzed using Pearson’s correlation coefficient. SPSS PROCESS Macro model 6 [20] was used to test the mediating effect of anxiety and acceptance attitude toward AI on the relationship between participants’ perception of and intention to use AI. To verify the significance of the mediating effect, 10,000 bootstrap samples were extracted at a confidence interval (CI). Bootstrapping reduces errors in the existing Sobel verification and does not require a large sample or the assumption of independence of path coefficients; therefore, it is widely used to verify mediating effects [21]. Before testing the mediating effect, multicollinearity between independent variables was confirmed using tolerance and variance inflation factor (VIF), and autocorrelation of dependent variables was confirmed using Durbin-Watson.

Results

Differences in variables by demographic characteristics

Participants were 154 women ( ). Most were in the second year ( ), followed by in the third ( ) and fourth year ( ). The group included 50 students ( ) with AI-related education. Analysis of the measured variables according to demographic characteristics showed a significant difference according to sex: women had higher anxiety than men ( ).
According to grade, second-year students had a significantly higher perception of than third- and fourth-year students. Second-year students
Table 1 Differences in measured variables by demographic characteristics ( )
Characteristic Category (%) or SD Perception of AI Anxiety about AI Acceptance attitudes toward AI Intention to use AI
t or F (p) t or F (p) t or F (p) t or F (p)
Age (years)
Sex Men 26 (14.4) 0.055 4.064 1.266 1.542
Women 154 (85.6) (0.956) (< 0.001) (0.207) (0.126)
Grade Year 80 (44.4) 6.510 1.606 4.591 0.823
Year 54 (30.0) (0.002) (0.204) (0.011) (0.441)
Year 46 (25.6) b, c < a
AI education experience Yes 50 (27.8) 2.076 -2.715 3.427 1.755
No 130 (72.2) (0.039) (0.007) (0.001) (0.081)
mean; standard deviation; artificial intelligence
Table 2 Descriptive statistics of measured variables ( )
Variable Range Min Max M SD
Perception of Al 1.50 4.40
Anxiety about Al 1.00 5.00
Acceptance attitude toward Al 1.00 5.00
Intention to use Al 2.00 5.00
artificial intelligence; mean; standard deviation
Table 3 Correlations among measured variables ( )
Variable Perception of Al Anxiety about AI Acceptance attitude toward AI Intention to use Al
r (p) r (p) r (p) r (p)
Perception of AI 1
Anxiety about AI -0.27 (< 0.001) 1
Acceptance attitude toward AI 0.44 (< 0.001) -0.36 (< 0.001) 1
Intention to use AI 0.38(<0.001) -0.28 (< 0.001) 0.43 (<0.001) 1
AI=artificial intelligence
had a significantly higher acceptance attitude toward AI than third-year students ( ). The students with AI education experience had a significantly higher perception of AI ( ) and acceptance attitude toward AI ( ) and significantly lower anxiety ( ) than those without an AI education. The t-tests and one-way analysis of variance analysis were conducted to measure the difference in AI use intention according to demographic variables such as gender, grade, and AI education experience of the study subjects. However, the difference was not significant, so this study did not consider differences between groups in AI use intention (Table 1).

Perception, anxiety, acceptance attitude, and intention to use AI

The average scores (out of 5) of participants’ perception of AI were ; anxiety about AI, ;
acceptance attitude toward AI, ; and intention to use AI, (Table 2).

Correlations between perception, anxiety, acceptance attitude, and intention to use AI

Table 3 shows the correlations between perception, anxiety, acceptance attitude toward AI, and intention to use AI. Perception had a significant positive correlation with acceptance attitude toward AI ( ), Intention to use AI ( ), and a significant negative correlation with anxiety about AI ( ). Anxiety about AI had significant negative correlations with acceptance attitude toward AI ( ) and intention to use AI ( ). Acceptance attitude toward AI had a significant positive correlation with intention to use AI ( ; Table 3).

The dual mediating effect of anxiety about AI and acceptance attitude toward AI

The assumptions of the regression analysis were verified before analyzing the mediating effects. The P-P plot was checked to determine the normality of the error term. The residuals were close to a line, confirming normal distribution. The scatter plot of residuals revealed an even distribution around 0 , confirming equal variance. The Durbin-Watson statistic was close to 2 at 2.240, suggesting the absence of autocorrelation among the residuals. The VIF was below 10, at 1.000-1.346, confirming the absence of multicollinearity. Thus, the study model satisfied all assumptions of the regression analy-sis-linearity of residuals, normality, equal variance, and independence.
To examine the mediating effects of anxiety about AI and acceptance attitude toward AI on the relationship between perception of and intention to use AI, analyses were performed using PROCESS Macro model 6. The model consisted of independent variables ( X : perception of AI), a dependent variable ( Y : intention to use AI), and two mediating variables (M1: anxiety about AI, M2: acceptance attitude toward AI).
Table 4 Direct effects of anxiety and acceptance attitudes on the relationship between perception of and intention to use AI ( )
Variable B SE t LLCI ULCI
95% CI 95% CI
Perception of AI (X) Anxiety about AI (M1) -0.420 0.111 3.773 < 0.001 -0.639 -0.200
Perception of Acceptance attitudes toward AI (M2) 0.541 0.100 5.424 < 0.001 0.344 0.738
Anxiety about AI (M1) Acceptance attitudes toward AI (M2) -0.256 0.065 3.959 < 0.001 -0.384 -0.129
Perception of Intention to use AI ( Y ) 0.280 0.091 3.068 0.002 0.100 0.460
Anxiety about Intention to use -0.091 0.057 1.593 0.113 -0.204 0.022
Acceptance attitudes toward AI (M2) Intention to use AI (Y) 0.246 0.064 3.856 <0.001 0.120 0.371
artificial intelligence; lower level confidence interval; upper level confidence interval; standard error
Table 5 Indirect effects of anxiety and acceptance attitudes on the relationship between perception of and intention to use AI ( )
Variable Effect Boot SE Boot LLCI Boot ULCI
95% CI 95% Cl
Perception of Anxiety about Al (M1) Intention to use AI (Y) 0.038 0.027 -0.007 0.098
Perception of Acceptance attitudes toward AI (M2) Intention to use 0.133 0.049 0.047 0.239
Perception of Anxiety about Acceptance attitudes toward AI (M2) Intention to use 0.026 0.016 0.004 0.066
Total 0.198 0.058 0.095 0.322
AI=artificial intelligence; LLCI=lower level confidence interval; ULCI=upper
level confidence interval; confidence interval; standard error
Table 4 shows the direct effects of anxiety about AI and acceptance attitude toward AI on the relationship between perception of and intention to use AI. Perception of AI had a significant negative effect on anxiety about AI ( ). Perception of AI had a significant positive effect ( ), while anxiety about AI had a significant negative effect ( , ) on acceptance attitude toward AI. Perception of and acceptance attitude toward AI had significant positive effects ( , respectively) on the intention to use AI. To confirm the mediating effects of anxiety about AI and acceptance attitude toward AI, the effect of both the independent variable on the dependent variable and that of the independent variable on the mediator must be significant, and the effect of the independent variable on dependent variable must be reduced after adding the mediator [20]. In our study model, the effect of perception of AI on intention to use AI was reduced after adding anxiety about AI and acceptance attitude toward AI ( ) compared to the effect without the mediator ( ,
), confirming that anxiety and acceptance attitude toward AI are mediators in this relationship.
Table 5 shows the indirect effect of the independent variable on dependent variables through mediation by anxiety and acceptance attitude toward AI. The size of the overall mediating effect was 0.198 (95% CI [0.095, 0.332]), which was significant, as evidenced by the absence of 0 in the bootstrap CI. In the analysis of simple mediating effects, the indirect effect size of anxiety about AI on the relationship between perception and intention to use was , which was not significant as there was 0 in the . The indirect effect size of acceptance attitude toward AI on the relationship between perception and intention to use ( X ) was 0.133 ( [ ]), which was significant as indicated by the absence of 0 in the CI. In the dual mediating effect model, in which anxiety and acceptance attitude toward AI mediated the relationship between perception of and intention to use M1 M2 Y), the effect size was 0.026 (95% CI [0.004, 0.066]); this was significant as evidenced by the absence of 0 in the CI (Fig. 1).

Discussion

In this study, we delved into the mediating effects of anxiety about AI and acceptance attitude toward AI on the nexus between perception of AI and intention to use AI in nursing practice. We aimed to lay a foundation for initiatives that encourage the use of AI among nursing students by dissecting the interrelations among anxiety about AI [17], perception of AI, and acceptance attitude toward AI [22], all identified as influential in shaping the intent to use AI.
The average perception score of AI among nursing students was , mirroring the findings in similar cohorts of healthcare professionals [18] and nursing students [22]. This resemblance suggests that the students’ expectations for AI in healthcare – particularly its potential to alleviate routine task burdens and enrich nursing care quality [2-4] – have significantly shaped
Fig. 1 Direct effects of anxiety and acceptance attitudes on the relationship between perception of and intention to use AI AI=artificial intelligence
their perceptions. The average anxiety level regarding AI clocked in at , a figure akin to that reported in health major undergraduates [23]. Notably, only a fraction (27.8%) of our participants had been exposed to AIrelated education. Prior research indicates a gap between the perceived need for AI education and the practical utility of current AI training in preparing students for AI adoption in healthcare [6, 24]. This educational gap might contribute to the heightened anxiety levels among nursing students, stemming from uncertainties about AI’s impact on their profession [4, 5].
In terms of acceptance attitude and intention to use AI, nursing students scored and , respectively. These figures are higher than those observed among health major undergraduates [23]. The variability in attitudes towards AI adoption could be attributed to several factors, including age, gender, field-specific contexts of AI use [25], individual personality traits and cultural backgrounds [26]. Moreover, the relatively younger demographic in our study might explain the higher acceptance rates of AI, possibly due to a greater alignment with technology and innovation [25]. Additionally, research indicating nurses’ positive assessment of robotic systems in healthcare [3] and their high expectations of such systems to improve nursing care quality [2-4] might illuminate why nursing students strongly intend to use AI.
We also explored how anxiety about AI and acceptance attitude toward AI mediate the relationship between perception of AI and intention to use AI. We observed that a more favorable perception of AI correlates with reduced anxiety. This trend aligns with the notion that positive expectations and understanding AI’s role in healthcare can mitigate fears and apprehensions [19, 23]. Moreover, an enhanced perception of AI leads to a more accepting attitude towards its use.
This finding echoes previous research suggesting that greater awareness of AI’s practical applications in daily healthcare operations boosts its acceptance [27].
Furthermore, we found that an acceptance attitude toward AI plays a dual mediating role. Not only does it directly influence the intention to use AI, but it also does so indirectly by modulating anxiety levels. This underscores the importance of positive attitudes in fostering an intention to use AI in healthcare [6, 28]. Negative perceptions, such as viewing AI as a threat to job security, can conversely lead to a more negative acceptance attitude and, consequently, a decreased intention to use AI.
From the perspective of applying results in nursing education and clinical nursing practice, this study highlights the critical role of both in leveraging AI’s potential in healthcare. It stresses the need for comprehensive AI education within the nursing curriculum to close the educational gap and reduce anxiety about AI among nursing students. The educational framework should cover AI’s technical aspects and its practical healthcare applications to foster a positive view and acceptance attitude toward AI. Furthermore, clinical nursing practice can advance by promoting an AI-friendly culture, demonstrating AI’s successful use in routine nursing tasks and patient care to mitigate fears and enhance confidence in AI technologies. Through specific workshops, seminars, and hands-on sessions that showcase AI’s benefits, including workload reduction and improved care quality, a better understanding and acceptance attitude toward AI among nursing students and professionals can be achieved. This approach could lead to broader and more effective AI use in healthcare, resulting in better patient outcomes and more efficient nursing practices.
In conclusion, our findings emphasize the crucial role of educational interventions that enhance understanding and acceptance of AI among nursing students. Such
initiatives can positively impact their intention to use AI in healthcare, thus potentially leading to improved healthcare outcomes.
Our study, however, is not without limitations. The cross-sectional design precludes us from drawing causal inferences. Future research, preferably longitudinal, should be conducted. Furthermore, the lack of direct experience with AI technologies among most participants points to the need for studies involving students who have had practical exposure to AI in healthcare settings.

Conclusion

Perception, anxiety, and acceptance toward AI are important factors influencing the intention to use AI, and anxiety and acceptance have a dual mediating effect on the relationship between perception of and intention to use AI among nursing students. Nursing educational institutions should provide systematic AI-related education to improve nursing students’ perception of AI, reducing their anxiety about it and positively transforming their acceptance of AI, ultimately boosting their intention to use it. Therefore, there is a pressing need for nursing education programs that bolster AI competencies to cultivate nurses capable of proactively adapting to the rapidly evolving healthcare environment during the fourth industrial revolution.

Abbreviations

AI Artificial intelligence
TAM Technology Acceptance Model
VIF Variance inflation factor
Cl Confidence interval

Acknowledgements

Not applicable.

Author contributions

KAC contributed to the concept and design of the study, collection and analysis of data, and drafting of the manuscript. YHS contributed to the concept and design of the study, statistical analysis, and interpretation of results. All the authors have read and approved the final version of the manuscript.

Funding

This study was conducted by research funds from Gwangju University in 2024.

Data availability

The datasets used and/or analyzed during this study are available from the corresponding author upon reasonable request.

Declarations

The institutional review board (2-1041318-A-N-01-202211-HR-027-01) of Gwangju University approved this study. We obtained written informed consent from all participants and conducted all methods based on relevant guidelines and regulations.
Not applicable.

Competing interests

The authors declare no competing interests.
Received: 27 August 2023 / Accepted: 21 March 2024
Published online: 28 March 2024

References

  1. Davenport T, Kalakota R. The potential for artificial intelligence in healthcare. Future Healthc J. 2019;6(2):94-8. https://doi.org/10.7861/futurehosp.6-2-94.
  2. Song YA, Kim HJ, Lee HK. Nursing, robotics, technological revolution: Robotics to support nursing work. J Korean Gerontol Nurs. 2018;20(S1):144-53. https:// doi.org/10.17079/jkgn.2018.20.s1.s144.
  3. Lee JY, Song YA, Jung JY, Kim HJ, Kim BR, Do HK, et al. Nurses’ needs for care robots in integrated nursing care services. J Adv Nurs. 2018;74(9):2094-105. https://doi.org/10.1111/jan.13711.
  4. Ronquillo CE, Peltonen LM, Pruinelli L, Chu CH, Bakken S, Beduschi A, et al. Artificial intelligence in nursing: priorities and opportunities from an international invitational think-tank of the nursing and Artificial Intelligence Leadership Collaborative. J Adv Nurs. 2021;77(9):3707-17. https://doi.org/10.1111/ jan. 14855.
  5. Swan BA. Assessing the knowledge and attitudes of registered nurses about artificial intelligence in nursing and health care. Nurs Econ. 2021;39(3):139-43.
  6. Kwak YH, Seo YH, Ahn JW. Nursing students’ intent to use AI-based healthcare technology: path analysis using the unified theory of acceptance and use of technology. Nurse Educ Today. 2022;119:105541. https://doi.org/10.1016/j. nedt.2022.105541.
  7. Carrington JM, Tiase VL. Nursing informatics year in review. Nurs Adm Q. 2013;37(2):136-43.
  8. Carrington JM. Summary of the nursing informatics year in review 2014. Nurs Adm Q. 2015;39(2):183-4.
  9. Carroll WM. The synthesis of nursing knowledge and predictive analytics. Nurs Manage. 2019;50(3):15-7. https://doi.org/10.1097/01. NUMA.0000553503.78274.f7.
  10. Buchanan C, Howitt ML, Wilson R, Booth RG, Risling T, Bamford M. Predicted influences of Artificial Intelligence on the domains of nursing: scoping review. JMIR Nurs. 2020;3(1):e23939. https://doi.org/10.2196/23939.
  11. McGrow K. Artificial intelligence: essentials for nursing. Nurs. 2019;49(9):46-9. https://doi.org/10.1097/01.NURSE.0000577716.57052.8d.
  12. Rahimi B, Nadri H, Afshar HL, Timpka T. A systematic review of the Technology Acceptance Model in Health Informatics. Appl Clin Inf. 2018;9(3):604-34. https://doi.org/10.1055/s-0038-1668091.
  13. Strudwick G. Predicting nurses’ use of healthcare technology using the technology acceptance model: an. Integr Rev Comput Inf Nurs 20153305189-198.
  14. Ahlan AR, Isma’eel AB. An overview of patient acceptance of health information technology in developing countries: a review and conceptual model. Int J Inf Syst Project Manage. 2015;3(01):29-48.
  15. Davis FD. Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Q. 1989;13:319-40. https://doi. org/10.2307/249008.
  16. Holden RJ, Asan O, Wozniak EM, Flynn KE, Scanlon MC. Nurses’ perceptions, acceptance, and use of a novel in-room pediatric ICU technology: testing an expanded technology acceptance model. BMC Med Inf Decis Mak. 2016;16:145. https://doi.org/10.1186/s12911-016-0388-y.
  17. Loewenstein GF, Weber EU, Hsee CK, Welch N. Risk as feelings. Psychol Bull. 2001;127(2):267-86. https://doi.org/10.1037/0033-2909.127.2.267.
  18. Shinners L, Grace S, Smith S, Stephens A. Exploring healthcare professionals’ perceptions of artificial intelligence: piloting the Shinners artificial intelligence perception tool. Digit Health. 2022;8:1-8. https://doi. org/10.1177/20552076221078110.
  19. Venkatesh V, Morris MG, Davis GB, Davis FD. User acceptance of information technology: toward a unified view. MIS Q. 2003;27(3):425-78. https://doi. org/10.2307/30036540.
  20. Hayes AF. An introduction to mediation, moderation, and conditional process analysis: a regression-based approach. New York, NY: Guilford; 2013.
  21. Han SJ. Effect of nursing organizational culture, organizational silence, and organizational commitment on the intention of retention among nurses: applying the PROCESS macro model 6. Korean J Occup Health Nurs. 2022;31(1):31-41. https://doi.org/10.5807/kjohn.2022.31.1.31.
  22. Seo YH, Cho KA. Influence of AI knowledge, perception, and acceptance attitude on nursing students’ intention to use AI-based healthcare technologies. J Korean Nurs Res. 2022;6(3):81-90. https://doi.org/10.34089/jknr.2022.6.3.81.
  23. Kim JM. Study on intention and attitude of using artificial intelligence technology in healthcare. J Converg Inf Technol. 2017;7(4):53-60. https://doi. org/10.22156/CS4SMB.2017.7.4.053.
  24. Sit C, Srinivasan R, Amlani A, Muthuswamy K, Azam A, Monzon L, et al. Attitudes and perceptions of UK medical students towards artificial intelligence and radiology: a multicentre survey. Insights Imaging. 2020;11(14):1-6. https://doi.org/10.1186/s13244-019-0830-7.
  25. Zhang B, Dafoe A. Artificial intelligence: American attitudes and trends. Available SSRN 3312874. 2019.
  26. Sindermann C, Yang H, Elhai JD, Yang S, Quan L, Li M, Montag C. Acceptance and Fear of Artificial Intelligence: associations with personality in a German and a Chinese sample. Discov Psychol. 2022;2(8). https://doi.org/10.1007/ s44202-022-00020-y.
  27. Ketikidis P, Dimitrovski T, Lazuras L, Bath PA. Acceptance of health information technology in health professionals: an application of the revised technology acceptance model. Health Inf J. 2012;18(2):124-34. https://doi. org/10.1177/1460458211435425.
  28. Labrague LJ, Aguilar-Rosales R, Yboa BC, Sabio JB, de los Santos JA. Student nurses’ attitudes, perceived utilization, and intention to adopt artificial intelligence (AI) technology in nursing practice: a cross-sectional study. Nurs Educ Today. 2023;73:103815. https://doi.org/10.1016/j.nepr.2023.103815.

Publisher’s Note

Springer Nature remains neutral with regard to jurisdictional claims in published maps and institutional affiliations.

  1. *Correspondence:
    Yon Hee Seo
    yseo017@naver.com
    ¹Department of Nursing, Gwangju University, 277, Hyodeok-ro, Nam-gu, GwangJu, South Korea
    Department of Nursing, Andong National University, 1375, Gyeongdongro, Andong-si, Gyeongsangbuk-do, South Korea