Tác động của đạo đức trí tuệ nhân tạo, thái độ và nhận thức đến hành vi sử dụng ChatGPT

Bài báo "Tác động của đạo đức trí tuệ nhân tạo, thái độ và nhận thức đến hành vi sử dụng ChatGPT" do MBA. Nguyễn Lý Trường An - MBA. Trương Thị Cẩm Vân - MBA. Võ Phương Chi - TS. Lượng Văn Quốc (Khoa Quản trị kinh doanh, Trường Đại học Tài chính – Marketing) thực hiện.

Tóm tắt:

Nghiên cứu này nhằm kiểm định mối quan hệ giữa đạo đức trí tuệ nhân tạo (AI), thái độ đối với ChatGPT, nhận thức kiểm soát hành vi với hành vi sử dụng ChatGPT của sinh viên. Với mẫu khảo sát gồm 310 quan sát để kiểm định các giả thuyết nghiên cứu, kết quả phân tích PLS-SEM cho thấy, đạo đức AI, thái độ đối với ChatGPT và nhận thức kiểm soát hành vi có tác động tích cực đến hành vi sử dụng ChatGPT. Ngoài ra, đạo đức AI còn có tác động tích cực đến thái độ đối với ChatGPT và nhận thức kiểm soát hành vi. Nghiên cứu này đóng góp quan trọng vào việc hiểu biết sâu hơn về tác động của đạo đức AI đối với thái độ, nhận thức kiểm soát hành vi và hành vi sử dụng công nghệ AI, cụ thể là ChatGPT. Từ kết quả nghiên cứu, một số hàm ý được đề xuất giúp các tổ chức, doanh nghiệp phát triển và triển khai các hệ thống AI, như ChatGPT, một cách hiệu quả hơn, đồng thời tăng cường sự chấp nhận và sử dụng công nghệ từ phía người dùng.

Từ khóa: đạo đức AI, thái độ đối với ChatGPT, nhận thức kiểm soát hành vi, hành vi sử dụng ChatGPT.

1. Đặt vấn đề

Sự phát triển của Trí tuệ nhân tạo (Artificial Intelligence - AI) trong những năm gần đây đã mang lại những đột phá đáng kể, AI được coi là công nghệ thực hiện các hoạt động nhận thức, có chức năng dành riêng cho con người (Goralski và Tan, 2020). Thêm nữa, sự phát triển nhanh chóng của AI đã góp phần đổi mới và nâng cao chất lượng giáo dục (Doãn Hồng Nhung và cộng sự, 2024). Mục đích của AI là hướng đến cải thiện chất lượng cuộc sống và tăng năng suất lao động, nhưng lại tạo ra các rủi ro mới và những lo ngại mới về đạo đức trong việc sử dụng AI. Theo Nguyễn Đức Thủy (2023), người dùng đặc biệt quan tâm về độ chính xác của kết quả mà AI tạo ra, cũng như khả năng của AI vượt quá khả năng nhận thức đúng sai của con người. AI được sử dụng để tự động hóa các quy trình đưa ra dự đoán, quyết định để hỗ trợ con người; AI đang ngày càng hoàn thiện, ngày càng “giống người” hơn, AI sẽ tạo ra những lo ngại về hậu quả tiêu cực, như sai sót, lệch lạc trong phạm trù đạo đức (Nguyễn Đức Thủy, 2023). Vì thế, AI đã đặt ra một vấn đề cấp thiết về đạo đức AI, cũng như đạo đức trong sử dụng công nghệ.

trí tuệ nhân tạo
Hình minh họa

Hiện tượng nổi bật của công nghệ AI hiện nay đó chính là ứng dụng ChatGPT (Generative Pre-training Transformer) của Open. AI, ChatGPT cho phép con người tương tác với máy móc sử dụng công nghệ xử lý ngôn ngữ tự nhiên. ChatGPT đang thu hút sự quan tâm của mọi người bởi sự tiện lợi, nhanh chóng và thông tin cực kỳ rộng lớn của nó. Sự “kỳ diệu” của ChatGPT chính là sự trao đổi như “một con người” với người dùng, cũng như nó cung cấp nhiều dịch vụ: từ tư vấn, giải đáp đến “sáng tạo” ở mọi lĩnh vực. Từ đây, việc sử dụng ChatGPT đã tạo ra nhiều vấn đề được đặc biệt quan tâm bởi các chuyên gia, các nhà quản lý và cả chính người dùng ChatGPT. Các nghiên cứu đánh giá thực nghiệm gần đây cho thấy ChatGPT “tiến hóa” vượt bậc so với các ứng dụng trước đó khi xử lý ngôn ngữ tự nhiên, đồng thời cũng cho thấy mối quan tâm về các lo ngại liên quan đến phạm trù đạo đức AI khi sử dụng ChatGPT như bảo mật, an toàn thông tin, tính công bằng và bình đẳng, sự vi phạm bản quyền, vi phạm về dữ liệu cá nhân, sáng tạo và phổ biến các thông tin giả mạo, sai lệch (Nguyễn Đức Thủy, 2023).

Chính vì thế, việc nghiên cứu đạo đức AI có vai trò quan trọng trong việc bảo vệ quyền riêng tư; tránh phân biệt đối xử; đảm bảo tính minh bạch; ngăn chặn thông tin sai lệch; đảm bảo an toàn; bảo vệ lợi ích của người dùng. Do đó, kết quả của nghiên cứu này sẽ đóng góp quan trọng vào việc tìm hiểu ảnh hưởng của đạo đức AI đối với hành vi sử dụng ChatGPT của con người, hướng đến sử dụng AI/ChatGPT một cách trách nhiệm, đảm bảo rằng công nghệ này mang lại lợi ích mà không gây hại cho con người và xã hội. Bên cạnh đó, kết quả này có thể hỗ trợ các chiến lược phù hợp khi tích hợp công cụ AI/ChatGPT vào các lĩnh vực khác nhau, đặc biệt trong giáo dục. Đồng thời kết quả cũng có thể đóng góp vào việc đẩy mạnh hành vi sử dụng công nghệ AI trong tương lai.

2. Cơ sở lý thuyết và giả thuyết nghiên cứu

2.1.   Cơ sở lý thuyết

Nghiên cứu này dựa trên lý thuyết hành vi dự định (TPB-Theory of Planned Behavior) của Ajzen (1991) làm cơ sở xây dựng mô hình nghiên cứu. Lý thuyết hành vi dự định được sử dụng phổ biến khi muốn dự đoán một hành vi cụ thể của cá nhân bất kỳ, có thể là hành vi sử dụng công nghệ. Theo Ajzen (1991), ý định hành vi của một cá nhân được hình thành dựa trên 3 yếu tố là thái độ đối với hành vi, chuẩn chủ quan và nhận thức kiểm soát hành vi. Các yếu tố này tác động trực tiếp đến ý định và từ đó sẽ thúc đẩy hành vi của người dùng.

Theo Nguyễn Đức Thủy (2023), đạo đức AI được định nghĩa là tập hợp các giá trị, nguyên tắc, kỹ thuật sử dụng các tiêu chuẩn về đúng, sai, được chấp nhận rộng rãi để hướng dẫn các hành vi đạo đức trong phát triển và sử dụng công nghệ AI. Diễn đàn Kinh tế thế giới thì cho rằng, đạo đức AI là lĩnh vực nghiên cứu đa nguyên tắc và nhiều bên liên quan nhằm xác định và thực thi các giải pháp kỹ thuật, cũng như phi kỹ thuật để giải quyết các mối quan tâm và giảm thiểu các rủi ro mà công nghệ này mang lại. Tiếp cận theo UNESCO, đạo đức AI là sự phản ánh có tính hệ thống và tính quy phạm một cách toàn diện, tổng thể và theo khung phát triển các giá trị, nguyên tắc và hành động phụ thuộc lẫn nhau nhằm hướng dẫn cộng đồng, xã hội đối phó một cách có trách nhiệm với các tác động đã biết và chưa biết của công nghệ AI đối với con người, xã hội, môi trường và hệ sinh thái; đồng thời cung cấp cho họ cơ sở để chấp nhận hoặc từ chối các công nghệ AI. Trong nghiên cứu này, đạo đức AI được tiếp cận theo định nghĩa của Nguyễn Đức Thủy (2023) và nội hàm của đạo đức AI có 11 giá trị mang tính phổ biến nhất, bao gồm: (1) Tính minh bạch/có thể giải thích được; (2) Công bằng/bình đẳng; (3) Bảo mật/phòng ngừa; (4) Trách nhiệm; (5) Quyền riêng tư; (6) Phúc lợi; (7) Tự do/Tự chủ; (8) Sự tin tưởng; (9) Tính bền vững; (10) Nhân phẩm; (11) Sự gắn kết.

Thái độ là “trạng thái tâm lý sẵn sàng” của một cá nhân hướng đến hành vi có mục tiêu, thường được hình thành thông qua sự tiếp xúc trực tiếp, bắt chước, khuyến khích và học tập xã hội, có thể dẫn đến cảm xúc tích cực hoặc tiêu cực, tùy thuộc vào cách họ đã tương tác trước đó với cá nhân hoặc vấn đề đó (Bain, 1928). Nhiều nghiên cứu về giáo dục đã thiết lập mối tương quan giữa thái độ của một người đối với công nghệ và sự sẵn lòng sử dụng hoặc tránh xa công nghệ đó (Atabek và Burak, 2020). Tuy nhiên, sự hiểu biết và chấp nhận công nghệ của các cá nhân có thể khác nhau, vì nó có thể được coi là mơ hồ hoặc đe dọa, do đó ảnh hưởng đến thái độ của họ (Gado và cộng sự, 2022). Vì vậy, điều quan trọng là đánh giá thái độ của các cá nhân đối với các công nghệ mới phát triển, vì thái độ ảnh hưởng đến việc chấp nhận chúng (Ajlouni và cộng sự, 2023).

Theo Ajzen (1991), khái niệm nhận thức kiểm soát hành vi nhằm giải thích các điều kiện mà cá nhân không có quyền kiểm soát hoàn toàn đối với hành vi của mình. Theo Ajzen, nhận thức kiểm soát hành vi đề cập đến nhận thức của mọi người về mức độ dễ dàng hoặc khó khăn khi thực hiện hành vi đang được đề cập. Tương tự, theo Mathieson (1991), nhận thức kiểm soát hành vi là “nhận thức của cá nhân về khả năng kiểm soát của mình đối với việc thực hiện hành vi”. Theo Doll và Ajzen (1992), nhận thức kiểm soát hành vi là “mức độ dễ dàng hoặc khó khăn được nhận thức khi thực hiện hành vi và được cho là phản ánh kinh nghiệm trong quá khứ cũng như những trở ngại và trở ngại dự kiến”. Murphy (2009) nhận thức kiểm soát hành vi là nhận thức của một người về mức độ dễ dàng hay khó khăn khi thực hiện hành vi dự định.

Hành vi của một cá nhân được xác định bởi ý định thực hiện hành vi đó, mà ý định này là kết quả của sự kết hợp giữa thái độ đối với hành vi, chuẩn mực chủ quan và nhận thức kiểm soát hành vi (Ajzen, 1991). Theo lý thuyết hành vi dự định của Ajzen (1991), hành vi sử dụng công nghệ được xem như là một kết quả của ý định sử dụng công nghệ của một cá nhân, trong đó ý định này được định hình bởi thái độ đối với việc sử dụng công nghệ, chuẩn mực chủ quan, và nhận thức kiểm soát hành vi (Ajzen, 1991).

2.2.   Giả thuyết nghiên cứu

Mehrabi và cộng sự (2021) đã chỉ ra rằng khi người dùng tin rằng hệ thống AI công bằng và không thiên vị, họ sẽ có thái độ tích cực hơn. Sự minh bạch và công bằng trong hệ thống AI làm tăng sự tin tưởng của người dùng và ảnh hưởng tích cực đến thái độ của họ (Mehrabi và cộng sự, 2021). Do vậy, giả thuyết sau được đề xuất:

H1:  Đạo đức AI có tác động tích cực đến thái độ đối với ChatGPT.

Mehrabi và cộng sự (2021) đã chỉ ra khi người dùng tin rằng hệ thống AI hoạt động công bằng và không thiên vị, họ cảm thấy dễ dàng hơn trong việc kiểm soát và điều chỉnh hành vi của hệ thống. Điều này cho thấy nhận thức về sự công bằng và minh bạch trong hệ thống AI giúp nâng cao cảm giác kiểm soát hành vi của người dùng, làm tăng sự tin tưởng và khuyến khích việc sử dụng công nghệ nhiều hơn (Binns và Kirkham, 2021). Do vậy, giả thuyết sau được đề xuất:H2: Đạo đức AI ảnh hưởng tích cực đến nhận thức kiểm soát hành vi.

Người dùng có xu hướng sử dụng các hệ thống mà họ hiểu rõ cách thức hoạt động và ra quyết định. Hơn nữa, Mehrabi và cộng sự (2021) chỉ ra khi người dùng cảm thấy hệ thống AI công bằng và không thiên vị, họ có xu hướng sử dụng hệ thống nhiều hơn. Sự minh bạch và công bằng trong hệ thống AI không chỉ nâng cao sự tin tưởng của người dùng mà còn khuyến khích hành vi sử dụng hệ thống (Binns và Kirkham, 2021; Venkatesh và cộng sự, 2003). Do vậy, giả thuyết sau được đề xuất:

H3: Đạo đức AI ảnh hưởng tích cực đến hành vi sử dụng ChatGPT.

Venkatesh và cộng sự (2003) cho rằng thái độ của người dùng đối với công nghệ có ảnh hưởng đáng kể đến hành vi sử dụng của họ. Khi người dùng có thái độ tích cực về công nghệ, đặc biệt khi họ tin rằng công nghệ đó hoạt động công bằng và minh bạch, họ sẽ có xu hướng sử dụng công nghệ đó nhiều hơn (Binns và Kirkham, 2021). Thái độ tích cực của người dùng đối với ChatGPT dẫn đến hành vi sử dụng ChatGPT nhiều hơn. Do vậy, giả thuyết sau được đề xuất:

H4: Thái độ đối với ChatGPT có tác động tích cực đến hành vi sử dụng ChatGPT.

Venkatesh và cộng sự (2003) đã khẳng định nhận thức về khả năng kiểm soát hành vi là một yếu tố quan trọng trong việc chấp nhận và sử dụng công nghệ. Khi người dùng cảm thấy có thể điều chỉnh và ảnh hưởng đến hành vi của công nghệ, họ sẽ có xu hướng sử dụng công nghệ đó nhiều hơn. Binns và Kirkham (2021) cũng nhấn mạnh đến khả năng điều chỉnh các thông số và nhận thức về sự minh bạch trong hệ thống AI giúp người dùng cảm thấy có thể kiểm soát các hành vi của hệ thống, từ đó khuyến khích việc sử dụng công nghệ nhiều hơn. Do vậy, giả thuyết sau được đề xuất:

H5: Nhận thức kiểm soát hành vi ảnh hưởng tích cực đến hành vi sử dụng ChatGPT.

3. Phương pháp nghiên cứu

3.1.   Thang đo

Thang đo các khái niệm trong mô hình nghiên cứu kế thừa từ các nghiên cứu trước. Kết quả thảo luận nhóm với 6 người đã từng sử dụng ChatGPT, nhóm tác giả đã phát triển được bộ thang đo nghiên cứu từ các thang đo gốc này. Trong đó, thang đo đạo đức AI được phát triển, điều chỉnh từ thang đo gốc của Nguyễn Đức Thủy (2023) gồm 14 biến quan sát. Thang đo thái độ đối với ChatGPT và thang đo nhận thức kiểm soát hành vi được phát triển từ thang đo gốc của Cheon và cộng sự (2012) lần lượt gồm 5 biến quan sát cho mỗi khái niệm. Thang đo hành vi sử dụng ChatGPT gồm 7 biến quan sát được phát triển từ thang đo gốc của Ajlouni và cộng sự (2023) phù hợp trong nghiên cứu này vì cùng nghiên cứu trong lĩnh vực AI về Chatbot, ChatGPT. Tất cả các biến quan sát đều được đo lường bằng thang đo Likert 5 điểm từ 1 (Hoàn toàn không đồng ý) đến 5 (Hoàn toàn đồng ý).

3.2.   Thu thập dữ liệu

Kích thước mẫu: Kích thước mẫu dự kiến được xác định theo nguyên tắc của Hair và cộng sự (2019) là tối thiểu phải gấp 5 lần số lượng biến quan sát thì kết quả mới đảm bảo tính chính xác. Với số biến quan sát trong nghiên cứu này là 41, cỡ mẫu tối thiểu cần đạt là 205 quan sát.

Phương pháp chọn mẫu: Nghiên cứu này sử dụng phương pháp chọn mẫu thuận tiện. Mẫu được nhóm tác giả chọn là những sinh viên, học viên đang theo học tại Trường Đại học Tài chính - Marketing (TP. Hồ Chí Minh). Đa số đáp viên này là những người thuộc thế hệ Z thích khám phá công nghệ mới và dễ thích nghi với công nghệ, cũng chính là những người được xác định là thường sử dụng ChatGPT.

Thu thập dữ liệu: Những người được chọn tham gia khảo sát là những người đã từng sử dụng ChatGPT. Bảng khảo sát được tạo trên google form và tiến hành khảo sát trong 3 tuần từ mối quan hệ cá nhân của nhóm tác giả. Nhóm tác giả đã thu được 310 quan sát (tất cả 310 quan sát đều hợp lệ) được đưa vào phân tích dữ liệu, với kích thước mẫu là 310 quan sát này đảm bảo theo nguyên tắc của Hair và cộng sự (2019). Trong đó, những đặc điểm đạt được tỷ lệ cao nhất theo từng tiêu chí lần lượt là: giới tính nữ (63,5%), độ tuổi là gen Z (73,2%), trình độ đại học (93,9%), chuyên ngành được đào tạo là khối ngành kinh tế, quản trị kinh doanh (75,8%), các loại chức năng của ChatGPT thường sử dụng là tìm kiếm thông tin (90,3%), mục đích sử dụng ChatGPT là để hỗ trợ học tập (79,7%), rất thường xuyên sử dụng ChatGPT (trên 8 lần/tháng) (43,2%).

3.3.   Quy trình phân tích

Nghiên cứu này sử dụng phần mềm SmartPLS 3.2.8 với kỹ thuật PLS-SEM để kiểm định mô hình và các giả thuyết nghiên cứu. Đánh giá một mô hình nghiên cứu bao gồm 2 phần: (1) đánh giá mô hình đo lường và (2) đánh giá mô hình cấu trúc. Việc đánh giá mô hình đo lường để đánh giá độ tin cậy của thang đo: các thang đo sẽ được kiểm tra tính đơn hướng, độ tin cậy, giá trị hội tụ và giá trị phân biệt. Việc đánh giá mô hình cấu trúc bao gồm các bước: đánh giá vấn đề đa cộng tuyến, đánh giá mức ý nghĩa và sự liên quan của các mối quan hệ trong mô hình cấu trúc, đánh giá hệ số xác định R2, đánh giá hệ số tác động f2 (Hair và cộng sự, 2017).

4. Kết quả nghiên cứu

4.1.   Đánh giá mô hình đo lường

Bảng 1. Kết quả phân tích độ tin cậy và giá trị hội tụ của thang đo

trí tuệ nhân tạo

Nguồn: Kết quả phân tích dữ liệu của nhóm tác giả

Với kết quả trong Bảng 1 cho thấy, các giá trị CR và Cronbach’s alpha của các nhân tố đều cao hơn 0,7 nên có thể kết luận các nhân tố trong mô hình đạt được độ tin cậy nhất quán nội bộ (Hair và cộng sự, 2017). Kết quả ở Bảng 1 cũng cho thấy tất cả các biến đều có giá trị hội tụ vì giá trị AVE cao hơn 0,5 (Hair và cộng sự, 2017).

Các giá trị tỷ lệ HTMT từ 0,665 đến 0,870 đều nhỏ hơn 0,9, chứng tỏ các biến quan sát có giá trị phân biệt (Henseler và cộng sự, 2015).

4.2.   Đánh giá mô hình cấu trúc

Hình 1: Mô hình kết quả

trí tuệ nhân tạo

Nguồn: Kết quả phân tích dữ liệu của nhóm tác giả

Bảng 2. Kết quả kiểm định giả thuyết nghiên cứu trong mô hình

trí tuệ nhân tạo

Nguồn: Kết quả phân tích dữ liệu của nhóm tác giả

Kết quả ở Bảng 2 cho thấy, tất cả 5 giả thuyết đều được chấp nhận do giá trị p nhỏ hơn 5%.

Bảng 3: Kết quả đánh giá hệ số tác động f2 và đa cộng tuyến

trí tuệ nhân tạo

Nguồn: Kết quả phân tích dữ liệu của nhóm tác giả

Kết quả ở Bảng 3 cho thấy, các giá trị VIF giữa biến độc lập và biến phụ thuộc trong mô hình biến động từ 1 đến 2,346 đều nhỏ hơn 5 nghĩa là mô hình không có hiện tượng đa cộng tuyến (Hair và cộng sự, 2017). Theo Cohen (1988), các giá trị f2 lần lượt là 0,02; 0,15 và 0,35 được xem là nhỏ, trung bình và lớn. Giá trị R2 nằm trong khoảng từ 0 đến 1, trị số càng cao sẽ cho thấy mức độ dự đoán chính xác trong mô hình càng cao. Các nhà nghiên cứu nhất trí với nhau rằng các giá trị R2 = 0,75; 0,50 và 0,25 được xem là cao, trung bình và yếu (Hair và cộng sự, 2011; Henseler và cộng sự, 2009). Tuy nhiên, theo Hair và cộng sự (2017), trong lĩnh vực người tiêu dùng thì giá trị R2 = 0,20 được xem là cao. Kết quả mô hình nghiên cứu được thể hiện ở Hình 1 cho thấy, các giá trị R2 lần lượt là 40,2%; 38,4% và 64,1%. Điều này cho thấy mức độ phù hợp tương đối tốt của mô hình nghiên cứu (Hair và cộng sự, 2017).

4.3.   Thảo luận kết quả

Nghiên cứu này nhằm kiểm tra tác động của các yếu tố đạo đức AI, thái độ và nhận thức kiểm soát hành vi đến hành vi sử dụng ChatGPT. Các giả thuyết đã được kiểm định và kết quả cho thấy tất cả đều được chấp nhận, chứng minh rằng các yếu tố này có ảnh hưởng tích cực đến hành vi sử dụng công nghệ của người dùng.

Đầu tiên, giả thuyết H1 cho thấy đạo đức AI có tác động tích cực đến thái độ của người dùng đối với ChatGPT. Điều này phù hợp với những phát hiện của Mehrabi và cộng sự (2021), khi họ nhấn mạnh đến sự minh bạch và công bằng trong hệ thống AI là yếu tố quan trọng ảnh hưởng đến sự chấp nhận công nghệ. Khi người dùng cảm thấy ChatGPT tuân thủ các nguyên tắc đạo đức, họ có thái độ tích cực hơn, dẫn đến việc sử dụng công nghệ này nhiều hơn.

Tiếp theo, giả thuyết H2 cũng được chứng minh khi đạo đức AI có tác động tích cực đến nhận thức kiểm soát hành vi. Kết quả này tương đồng với những nghiên cứu trước đây như của Binns và Kirkham (2021) khi cho rằng sự công bằng và minh bạch trong hệ thống AI giúp nâng cao cảm giác kiểm soát hành vi của người dùng, từ đó tăng cường sự tin tưởng và khuyến khích sử dụng công nghệ.

Giả thuyết H3 về việc đạo đức AI ảnh hưởng đến hành vi sử dụng ChatGPT cũng được chấp nhận, mặc dù hệ số tác động nhỏ hơn so với các giả thuyết khác. Điều này cho thấy mặc dù đạo đức AI có tác động đến hành vi sử dụng, nhưng mức độ ảnh hưởng có thể thấp hơn do có thể còn nhiều yếu tố khác tác động đến quyết định sử dụng công nghệ của người dùng.

Giả thuyết H4 và H5 cho thấy thái độ và nhận thức kiểm soát hành vi đều có ảnh hưởng tích cực đến hành vi sử dụng ChatGPT. Điều này đồng nhất với những nghiên cứu trước như của Venkatesh và cộng sự (2003) khi thái độ tích cực và cảm giác kiểm soát hành vi của người dùng đối với công nghệ thúc đẩy họ sử dụng công nghệ nhiều hơn.

Nhìn chung, nghiên cứu này không chỉ xác nhận các giả thuyết đã đặt ra mà còn khẳng định tầm quan trọng của các yếu tố đạo đức AI trong việc định hình thái độ, nhận thức và hành vi của người dùng. Các kết quả này có ý nghĩa quan trọng trong việc phát triển và áp dụng các hệ thống AI như ChatGPT, khi mà các nguyên tắc đạo đức cần được ưu tiên để đảm bảo sự chấp nhận và sử dụng rộng rãi của người dùng.

5. Kết luận và hàm ý quản trị

5.1.   Kết luận

Nghiên cứu này đóng góp quan trọng vào việc hiểu biết sâu hơn về tác động của đạo đức AI đối với thái độ, nhận thức kiểm soát hành vi và hành vi sử dụng công nghệ AI, cụ thể là ChatGPT. Nghiên cứu này không chỉ mang lại giá trị lý thuyết mà còn có ý nghĩa thực tiễn đối với việc phát triển và triển khai các hệ thống AI, đặc biệt là trong việc xây dựng nhận thức và thái độ tích cực từ phía người dùng. Những đóng góp của nghiên cứu có thể được thể hiện qua các khía cạnh sau: củng cố vai trò của đạo đức AI trong thái độ người dùng; khám phá mối quan hệ giữa đạo đức AI và nhận thức kiểm soát hành vi; xác nhận tầm quan trọng của đạo đức AI trong việc thúc đẩy hành vi sử dụng ChatGPT.

Nghiên cứu này đã kiểm định và xác nhận các giả thuyết liên quan đến tác động của đạo đức AI, thái độ và nhận thức kiểm soát hành vi đối với hành vi sử dụng ChatGPT. Kết quả nghiên cứu cho thấy, đạo đức AI có tác động tích cực và mạnh mẽ đến thái độ đối với ChatGPT, cũng như nhận thức kiểm soát hành vi của người dùng. Thái độ tích cực và nhận thức kiểm soát hành vi này tiếp tục ảnh hưởng mạnh mẽ đến hành vi sử dụng ChatGPT.

5.2.   Hàm ý quản trị

Dựa vào kết quả nghiên cứu, một số hàm ý quản trị sau đây được đề ra giúp các tổ chức và doanh nghiệp phát triển và triển khai các hệ thống AI, như ChatGPT, một cách hiệu quả hơn, đồng thời tăng cường sự chấp nhận và sử dụng công nghệ từ phía người dùng:

Nâng cao Đạo đức AI: (1) Thúc đẩy tính minh bạch và công bằng: các công ty phát triển AI cần đảm bảo các hệ thống AI, bao gồm ChatGPT, hoạt động theo các nguyên tắc đạo đức như tính minh bạch, công bằng và không thiên vị. Điều này không chỉ giúp tăng cường sự tin tưởng và thái độ tích cực của người dùng, mà còn nâng cao khả năng kiểm soát hành vi của họ đối với hệ thống AI. (2) Tăng cường trách nhiệm xã hội: các nhà quản lý cần đảm bảo rằng AI được phát triển và triển khai với mục tiêu mang lại lợi ích cho cộng đồng và bảo vệ quyền lợi của người dùng, như đảm bảo quyền riêng tư và bảo mật dữ liệu.

Tối ưu hóa thái độ đối với ChatGPT: (1) Tăng cường nhận thức về giá trị: người dùng cần được thông tin về lợi ích và giá trị của việc sử dụng ChatGPT trong học tập, công việc và đời sống hàng ngày. Điều này có thể được thực hiện thông qua các chiến dịch quảng cáo, bài viết blog, hoặc tài liệu hướng dẫn. (2) Xây dựng cộng đồng người dùng tích cực: tạo ra các diễn đàn hoặc nhóm cộng đồng để người dùng chia sẻ kinh nghiệm và lời khuyên về việc sử dụng ChatGPT. Điều này sẽ góp phần xây dựng thái độ tích cực và khuyến khích sự lan tỏa tự nhiên của công nghệ này.

Cải thiện nhận thức kiểm soát hành vi: (1) Giáo dục và cung cấp tài nguyên: để tăng cường nhận thức kiểm soát hành vi của người dùng, cần cung cấp hướng dẫn sử dụng rõ ràng, đào tạo người dùng về cách thức hoạt động của AI và làm thế nào để tối ưu hóa việc sử dụng ChatGPT. Điều này sẽ giúp người dùng cảm thấy tự tin hơn khi sử dụng công nghệ và tăng cường sự tương tác với AI. (2) Phát triển giao diện người dùng thân thiện: Giao diện dễ sử dụng và trực quan giúp người dùng dễ dàng kiểm soát và điều chỉnh các chức năng của ChatGPT, từ đó thúc đẩy hành vi sử dụng tích cực.

Khuyến khích hành vi sử dụng ChatGPT: (1) Xây dựng chiến lược tiếp thị: các chiến lược tiếp thị cần tập trung vào việc truyền tải thông điệp về tính minh bạch, công bằng, và đạo đức của ChatGPT. Điều này sẽ tạo ra nhận thức tích cực và khuyến khích hành vi sử dụng của người dùng. (2) Cung cấp trải nghiệm người dùng tốt hơn: tối ưu hóa các chức năng của ChatGPT theo nhu cầu của người dùng, chẳng hạn như hỗ trợ học tập, giải trí, và công việc, sẽ giúp tăng tần suất sử dụng và sự hài lòng của người dùng./.

TÀI LIỆU THAM KHẢO:

  1. Ajlouni, A. O., Wahba, F. A.-A., & Almahaireh, S. A. (2023). Students’ Attitudes Towards Using ChatGPT as a Learning Tool: The Case of the University of Jordan. International Journal of Interactive Mobile Technologies, 17(18), 99-117.
  2. Ajzen, I. (1991). The theory of planned behavior. Organizational Behavior and Human Decision Processes, 50(2), 179-211.
  3. Atabek, O., & Burak, S. (2020). Pre-school and primary school pre-service teachers’ attitudes towards using technology in music education. Eurasian Journal of Educational Research, 2020(87), 47-68.
  4. Bain, R. (1928). An attitude on attitude research. American Journal of Sociology, 33(6), 940-957.
  5. Binns, R., & Kirkham, R. (2021). How Could Equality and Data Protection Law Shape AI Fairness for People with Disabilities? ACM Transactions on Accessible Computing, 14(3), 1-37.
  6. Cheon, J., Lee, S., Crooks, S. M., & Song, J. (2012). An investigation of mobile learning readiness in higher education based on the theory of planned behavior. Computers and Education, 59(3), 1054-1064.
  7. Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. Lawrence Erlbaum Associates, Publishers.
  8. Doãn Hồng Nhung, Nguyễn Xuân Bảo & Vũ Thị Hồng Hà (2024). Cơ hội và thách thức của trí tuệ nhân tạo trong giáo dục đại học, một số khuyến nghị đối với hoạt động đào tạo nghề Luật ở Việt Nam. Tạp chí Công Thương, 7(4), 4-83.
  9. Doll, J., & Ajzen, I. (1992). Accessibility and Stability of Predictors in the Theory of Planned Behavior. Journal of Personality and Social Psychology, 63(5), 754-765.
  10. Gado, S., Kempen, R., Lingelbach, K., & Bipp, T. (2022). Artificial intelligence in psychology: How can we enable psychology students to accept and use artificial intelligence? Psychology Learning & Teaching, 21(1), 37-56.
  11. Goralski, M. A., & Tan, T. K. (2020). Artificial intelligence and sustainable development. International Journal of Management Education, 18(1).
  12. Hair, Joe F, Ringle, C. M., Sarstedt, M., Hair, J. F., Ringle, C. M., & Sarstedt, M. (2011). PLS-SEM: Indeed a Silver Bullet. Journal of Marketing Theory and Practice, 19(2), 139-152.
  13. Hair, Joseph F, M.Hult, G. T., M.Ringle, C., & Sarstedt, M. (2017). A Primer on Partial Least Squares Structural Equation Modeling (PLS-SEM). SAGE Publications.
  14. Hair Jr, J. F., Black, W. C., Babin,  arry J., & Anderson, R. E. (2019). Multivariate Data Analysis (8th ed.). Cengage.
  15. Henseler, J, Ringle, C. M., & Sarstedt, M. (2015). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the Academy of Marketing Science, 43(1), 115-135.
  16. Henseler, Jorg, Ringle, C. M., & Sinkovics, R. R. (2009). The Use Of Partial Least Squares Path Modeling In International Marketing. In New Challenges to International Marketing. Emerald Group Publishing Limited.
  17. Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A Survey on Bias and Fairness in Machine Learning. ACM Computing Surveys, 54(6), 1-35.
  18. Murphy, G. D. (2009). Improving the quality of manually acquired data: applying the theory of planned behavior to data quality. Reliability Engineering and System Safety, 94(12), 1881-1886.
  19. Nguyễn Đức Thủy (2023). Đạo đức trong ứng dụng trí tuệ nhân tạo. Tạp chí Thông tin và Truyền thông, 4, 36-45.
  20. Venkatesh, V., Morris, M. G., Davis, G. B., & Davis, F. D. (2003). User Acceptance of Information Technology: Toward a Unified View. MIS Quarterly, 27(3), 425-478.

THE IMPACT OF AI ETHICS, ATTITUDES, AND PERCEPTIONS ON CHATGPT USAGE BEHAVIOR

MBA. Nguyen Ly Truong An1
MBA. Truong Thi Cam Van1
MBA. Vo Phuong Chi1
Ph.D Luong Van Quoc1
1Faculty of Business Administration, University of Finance and Marketing
 

Abstract:

This study examined the relationship between artificial intelligence (AI) ethics, attitudes towards ChatGPT, perceived behavioral control, and students' usage behavior of ChatGPT. With a survey sample of 310 observations used to test the research hypotheses, the results of the PLS-SEM analysis showed that AI ethics, attitudes towards ChatGPT, and perceived behavioral control have positive impacts on the student’s ChatGPT usage behavior. Additionally, AI ethics also positively influence attitudes towards ChatGPT and perceived behavioral control. This study is expected to make significant contributions to the understanding of the impact of AI ethics on attitudes, perceived behavioral control, and the behavior of using AI technology, specifically ChatGPT. Based on the study’s findings, several implications were proposed to help organizations and businesses develop and implement AI systems, such as ChatGPT, more effectively while also enhancing user acceptance and technology usage.

Keywords: AI ethics, attitudes towards ChatGPT, perceived behavioral control, ChatGPT usage behavior.

[Tạp chí Công Thương - Các kết quả nghiên cứu khoa học và ứng dụng công nghệ, Số 18 tháng 8 năm 2024]