Tóm tắt:
Bài viết nghiên cứu trách nhiệm pháp lý đặt ra đối với nhà sản xuất trí tuệ nhân tạo (Artificial Intelligence, viết tắt là AI) trong 3 trường hợp cụ thể: thứ nhất, sử dụng công nghệ AI đúng theo hướng dẫn với mục đích cho phép nhưng gây ra thiệt hại; thứ hai, sử dụng công nghệ AI khi mới phát minh, chưa có hướng dẫn đầy đủ (những người đi đầu trong việc sử dụng công nghệ AI mới hay quá trình vận hành thử (quá trình thử nghiệm AI) xảy ra thiệt hại; thứ ba, sử dụng vào mục đích xấu có chủ ý. Đồng thời, bài viết cũng đề xuất một số giải pháp nhằm giảm thiểu tác hại từ công nghệ này.
Từ khóa: trí tuệ nhân tạo, bồi thường thiệt hại, trách nhiệm pháp lý, công nghệ AI, nhà sản xuất.
1. Đặt vấn đề
Trước sự phát triển bùng nổ của khoa học kỹ thuật, việc ứng dụng AI trong đời sống không còn xa lạ. Thực tế cũng chứng minh, AI mang lại nhiều lợi ích như: Nâng cao năng suất, thúc đẩy sự phát triển… Tuy nhiên, AI cũng làm nảy sinh nhiều vấn đề. Một trong những vấn đề đó là trách nhiệm pháp lý đặt ra khi có thiệt hại do sử dụng công nghệ AI. Việc xác định trách nhiệm bồi thường thiệt hại do công nghệ AI rất phức tạp, có thể là nhà sản xuất, người vận hành, người dùng là vấn đề rất cần thiết.
Hiện nay, có nhiều cách tiếp cận và lập luận khác nhau về trách nhiệm bồi thường thiệt hại do công nghệ AI gây ra. Tuy nhiên, nhìn chung các lập luận đều hướng đến xác định ai phải chịu trách nhiệm pháp lý và trong hoàn cảnh nào?
2. Thực trạng và thách thức pháp lý đặt ra từ sử dụng công nghệ AI trong thực tiễn gây ra thiệt hại
Điều đầu tiên cần nhận thấy, việc phát triển và sử dụng công nghệ AI đang mang lại rất nhiều lợi ích và tạo ra sự thay đổi lớn trong tương lai. Mục đích thứ hai là dùng để kiểm soát xã hội khi sử dụng các kỹ thuật AI như công cụ nhận dạng giọng nói và khuôn mặt, đây có thể là cơ sở để kiểm soát cá nhân nhằm đảm bảo họ tuân theo các yêu cầu cụ thể. Mục đích thứ ba của việc sử dụng AI là thúc đẩy sự hưng thịnh của loài người[1]1. Tuy nhiên, bài viết chỉ đề cập đến những thiệt hại thực tế có thể xảy ra khi sử dụng công nghệ AI và xoay quanh trách nhiệm pháp lý của chủ thể tạo ra sản phẩm trí tuệ nhân tạo đó. Tác giả chia vấn đề này thành 3 nhóm sau:
Nhóm vấn đề thứ nhất, sử dụng công nghệ AI đúng theo hướng dẫn với mục đích cho phép nhưng gây ra thiệt hại. Đây là những trường hợp cá nhân, tổ chức sử dụng trí tuệ nhân tạo với những mục đích cho phép được khuyến cáo bởi những nhà sáng lập công nghệ trí tuệ nhân tạo nhưng vẫn gây ra thiệt hại, thường là thiệt hại ngoài hợp đồng. Chẳng hạn như trường hợp một hệ thống giọng nói ở Anh được thiết kế để phát hiện tình trạng nhập cư gian lận cuối cùng đã hủy bỏ hàng nghìn thị thực và trục xuất mọi người do nhầm lẫn[2]. Trường hợp này là điển hình và trong một số trường hợp khác với khả năng học hỏi và tự đưa ra quyết định khi AI tương tác với môi trường.
Nhóm vấn đề thứ hai đó là sử dụng công nghệ AI khi mới phát minh, chưa có hướng dẫn đầy đủ (Những người đi đầu trong việc sử dụng công nghệ AI mới hay quá trình vận hành thử (quá trình thử nghiệm AI) xảy ra thiệt hại. Trên thực tế, các công ty công nghệ ngày càng thúc đẩy thử nghiệm các công nghệ mới một cách nhanh chóng và không quan tâm nhiều đến những tác hại khi thí nghiệm thất bại, bao gồm việc ai là người chịu rủi ro đó. Những cuộc thử nghiệm này đang còn rất mơ hồ trong việc hậu quả xảy ra khi thất bại, thiệt hại xảy ra không rõ trách nhiệm thuộc về ai[3].
Nhóm vấn đề thứ ba đó là sử dụng vào mục đích xấu có chủ ý công nghệ AI ra thiệt hại. Trong trường hợp này có thể hiểu các cá nhân tổ chức sử dụng công nghệ AI với mục đích xâm hại lợi ích của các cá nhân tổ chức khác. Chẳng hạn như sử dụng kỹ thuật tổng hợp hình ảnh con người dựa trên AI để tạo ra hình ảnh, video rất khó phân biệt thật giả bằng mắt/tai theo cách thông thường sử dụng để lừa đảo chiếm đoạt tài sản trên không gian mạng. Các nạn nhân của Deepfake gần như bất lực trong việc nhận diện thủ phạm …[4]. Mặc dù khi sáng lập ứng dụng này, các nhà sáng lập sử dụng với mục đích dùng cho giải trí. Tuy nhiên, hiện nay công nghệ này đang tạo ra những mối quan ngại của nhiều người và đã gây ra nhiều thiệt hại. Đây chỉ là một trường hợp khi xem xét tính phức tạp và nguy hiểm có khả năng kiểm soát được, nhưng trong một số trường hợp khác thì rất khó để xem xét tính nghiêm trọng và phức tạp của nó.
3. Trách nhiệm của nhà sản xuất với tư cách là người tạo nên công nghệ AI
Phát triển và ứng dụng AI mang lại rất nhiều lợi ích, tuy nhiên cũng tồn tại rất nhiều rủi ro. Trong những cuộc tranh luận này, trách nhiệm của nhà sản xuất (công ty) sáng tạo AI thường được xem dưới dạng trách nhiệm xã hội của doanh nghiệp. Tuy nhiên điều này là chưa khả quan.
Trách nhiệm của công ty sáng tạo AI đối với thiệt hại xảy ra với nhóm vấn đề thứ nhất. Trường hợp này trách nhiệm sản phẩm bao gồm dựa trên lỗi (sơ suất), lỗi thiết kế, lỗi sản xuất, không cảnh báo, trình bày sai và vi phạm bảo hành khó có thể áp dụng. Hầu hết các nhà sản xuất đã loại trừ trách nhiệm của mình. Bởi trong trường hợp này, giữa những công ty công nghệ sáng tạo AI và người dùng thường có những hợp đồng hay điều khoản sử dụng dịch vụ. Tuy nhiên, hầu hết các điều khoản này đều là những điều khoản có lợi cho các công ty công nghệ và điều khoản loại trừ trách nhiệm của họ. Những điều khoản này được xem là những “cái bẫy” dành cho người sử dụng. Chẳng hạn như khi chúng ta tải phần mềm ChatGPT thì trong thời điểm đăng ký/cài đặt chúng ta phải chấp nhận nội dung sử dụng và trong nội dung đó có rất nhiều điều khoản về loại trừ trách nhiệm của các công ty công nghệ. Trên thực tiễn cũng đã có những trường hợp xảy ra thiệt hại khi sử dụng các công nghệ chatbot AI như ChatGPT này[5].
Trong trường hợp thiệt hại xảy ra do “bất thường” của AI, người dùng có thể yêu cầu bồi thường thiệt hại đối với nhà thiết kế và sản xuất AI. Hiện nay, hầu hết hệ thống pháp luật đều tiếp cận dưới góc độ trách nhiệm nghiêm ngặt theo nguyên tắc chung trong Điều 12 Công ước Liên hợp quốc về sử dụng truyền thông điện tử trong hợp đồng quốc tế. Theo đó, một người dù là cá nhân hoặc pháp nhân mà máy tính được lập trình thay mặt họ phải chịu trách nhiệm cuối cùng về bất kỳ thông báo nào do máy tính tạo ra. Hay mới nhất theo phản hồi của Viện Luật Châu Âu đối với Tham vấn Cộng đồng về Trách nhiệm Dân sự - Điều chỉnh Quy tắc Trách nhiệm cho Thời đại Kỹ thuật số và Trí tuệ Nhân tạo thì tác hại gây ra bởi một công nghệ kỹ thuật số mới nổi bị lỗi sẽ kích hoạt trách nhiệm nghiêm ngặt của nhà sản xuất, bất kể công nghệ ở dạng hữu hình hay kỹ thuật số[6]. Tuy nhiên, thực tế cũng rất khó để xác định trách nhiệm của các công ty công nghệ do cơ chế của bằng chứng. Khi đó, người dùng phải chứng minh những lỗi và khiếm khuyết như vậy đã tồn tại trong AI nằm dưới sự kiểm soát của nhà sản xuất và khiếm khuyết là nguyên nhân trực tiếp gây ra những thiệt hại[7].
Ở nhóm vấn đề thứ hai, trong trường hợp này xảy ra vấn đề liên quan đến việc thiếu quy trình hợp pháp, trách nhiệm giải trình, sự tham gia của cộng đồng và kiểm toán khi sử dụng hệ thống AI cho các quyết định tự động và dự đoán phân tích. Nhiều vấn đề xây dựng cơ bản cần thiết để hiểu các hệ thống AI và đảm bảo các hình thức trách nhiệm giải trình nhất định từ dữ liệu đào tạo, đến mô hình dữ liệu, đến chức năng thuật toán đọc mã, phần mềm và hướng dẫn triển khai, thiết kế và phát triển có thể truy cập và xem xét bởi luật bí mật của công ty. Cùng với đó là việc thúc đẩy nghiên cứu AI nhanh chóng để đón đầu công nghệ, tạo nên một bộ phận chính sách pháp luật khiến các nhà phát triển và bộ phận bán hàng không phải chịu trách nhiệm xem xét các nhược điểm tiềm ẩn[8]. Hiện tại thực tiễn đã có rất nhiều vụ liên quan đến vấn đề thử nghiệm hệ thống AI, tuy nhiên hệ thống pháp luật thực tại chưa có nhiều những quy định về vấn đề này.
Ở nhóm vấn đề thứ ba, các nhà làm luật nên xem xét những vấn đề trách nhiệm của những người sáng tạo AI nhằm giải quyết khi có chủ thể sử dụng công nghệ mà họ sáng tạo để thực hiện các hành vi phạm tội. Mặc dù còn có nhiều ý kiến cho rằng việc này sẽ làm cản trở quá trình phát triển công nghệ trí tuệ nhân tạo, tuy nhiên khoa học phát triển cũng vì mục đích lấy con người làm trung tâm. Vậynên cần hướng đến phát triển một cách an toàn. Trong vấn đề này có thể đưa ra những quy định yêu cầu các nhà sáng tạo AI có trách nhiệm khi tạo ra sản phẩm mà chủ thể khác có thể sử dụng vào mục đích gây hại.
3. Một số giải pháp
NCông nghiệp AI là một ngành còn rất mới, hiện nay chưa có nhiều các quy định cụ thể để điều chỉnh, nhất là trong vấn đề về trách nhiệm pháp lý do công nghệ AI tạo ra. Tuy nhiên, có thể tập trung một số biện pháp để giảm thiểu tác hại do AI tạo ra.
Một là, phải có những quy định cụ thể về giấy phép và chứng nhận đối với nhà sáng tạo AI. Điều này sẽ giúp các nhà phát triển AI phải tuân thủ các quy định pháp lý cũng như đạo đức hiện hành.
Hai là, đặt ra các quy định về việc công bố thông tin và các thuật toán về AI. Các thuật toán AI nên được thiết kế sao cho có thể giải thích được cách thức hoạt động của chúng. Điều này giúp tăng cường sự tin tưởng và hiểu biết của người dùng về AI. Mặt khác, các nhà phát triển nên công bố thông tin về cách thức dữ liệu được thu thập, xử lý và sử dụng trong các hệ thống AI.
Ba là, đặt ra những quy định về trách nhiệm chất lượng và độ chính xác của AI. Nhà sáng tạo AI cần có cơ chế để phát hiện và sửa chữa các sai sót trong các hệ thống AI và chịu trách nhiệm về hậu quả của các sai sót này.
Bốn là, nâng cao nhận thức của người dùng. Các quốc gia, tổ chức cần tăng cường nhận thức của cộng đồng về các khả năng và hạn chế của AI, cùng những rủi ro và cơ hội mà công nghệ này mang lại.
5. Kết luận
Sự phát triển của công nghệ trí tuệ nhân tạo AI là điều cần thiết đối với con người. Tuy nhiên, hiện tại chưa có nhiều quy định về trách nhiệm của người sản xuất AI, vì vậy vẫn đang có nhiều tác động tiêu cực của AI đối với xã hội. Trong thời gian tới, các quy định này cần được linh hoạt và thích ứng với sự phát triển nhanh chóng của công nghệ AI, đồng thời phải đảm bảo sự sáng tạo và đổi mới không bị cản trở bởi các quy định quá nghiêm ngặt hoặc không hợp lý.
TÀI LIỆU TRÍCH DẪN:
[1] Stahl B. C. & Andreou A. & Brey P. & Hatzakis T. & Kirichenko A. & Macnish K. & Laulhé Shaelou S. & Patel A. & Ryan M. & Wright D. (2021). Artificial intelligence for human flourishing - Beyond principles for machine learning, 376
[2] Nikhil Sonnad (2018). A flawed algorithm led the UK to deport thousands of students. Available at: https://qz.com/1268231/a-toeic-test-led-the-uk-to-deport-thousands-of-students
[4] Văn Phong (2023). Cuộc gọi lừa đảo Deepfahe là gì, hoạt động như thế nào?. Truy cập tại: https://www.qdnd.vn/giao-duc-khoa-hoc/cac-van-de/cuoc-goi-lua-dao-deepfake-la-gi-hoat-dong-nhu-the-nao-723568
[5] Anh Vũ (2023). Luật sư Mỹ bị phạt 5.000 USD do dùng ChatGPT. Truy cập tại: https://laodong.vn/cong-nghe/luat-su-my-bi-phat-5000-usd-do-dung-chatgpt-1208508.ldo
[6] BA Koch et al (2022). Response of the European Law Institute: Public Consultation on Civil Liability Adapting liability rules to the digital age and artificial intelligence. Journal of European Tort Law, 25.
[7] Paulius Cerka, Jurgita Grigiene, Gintare Sirbikyte (2015). Liability for damages caused by artificial intelligence, 385
[8] AINOW (2018). AI Now report 2018, tr 11.
TÀI LIỆU THAM KHẢO:
- Nguyễn Sỹ Nhàn (2022). Ứng dụng công nghệ trí tuệ nhân tạo trong dịch vụ tài chính tại Việt Nam - Phần 1: Xu hướng công nghệ AI. Ứng Dụng Công Nghệ Trí Tuệ Nhân Tạo Trong Dịch Vụ Tài Chính Tại Việt Nam – Phần 1: Xu Hướng Công Nghệ AI – UEH ALumni Truy cập tại: https://alumni.ueh.edu.vn/ung-dung-cong-nghe-tri-tue-nhan-tao-trong-dich-vu-tai-chinh-tai-viet-nam-phan-1-xu-huong-cong-nghe-ai.
- Szczepański M. (2019). Economic impacts of artificial intelligence (AI). Available at: https://www.europarl.europa.eu/RegData/etudes/BRIE/2019/637967/EPRS_BRI(2019)637967_EN.pdf.
- David L., Thakkar A., Mercado R., Engkvist O. (2020). Molecular representations in AI-driven drug discovery: a review and practical guide. Journal of Cheminformatics, 12(1), 1–22, https:// doi.org/10.1186/s13321-020-00460-5.
- Hesami M., Jones A.M.P. (2020). Application of artificial intelligence models and optimization algorithms in plant cell and tissue culture. Applied Microbiology and Biotechnology, 104, 9449-85. https://doi.org/10.1007/s00253-020-10888-2.
- Zhu Y., Cao Z., Lu H., Li Y., Xiao Y. (2016). In-field automatic observation of wheat heading stage using computer vision. Journal of Biosystems Engineering, 143, 28-41. https://doi.org/ 10.1016/j.biosystemseng.2015.12.015
- Andreas Holzinger, Katharina Keiblinger, Petr Holub, Kurt Zatloukal, Heimo Müller (2023). AI for life: Trends in artificial intelligence for biotechnology. New Biotechnology 74, 16-24. https://doi.org/10.1016/j.nbt.2023.02.001
- Phạm Thị Thu Hà (2019). Phát triển trí tuệ nhân tạo AI tại Việt Nam: Thực trạng, kinh nghiệm quốc tế và xu hướng phát triển. Truy cập tại: http://hvcsnd.edu.vn/nghien-cuu-trao-doi/dai-hoc-40/phat-trien-tri-tue-nhan-tao-ai-tai-viet-nam-thuc-trang-kinh-nghiem-quoc-te-va-xu-huong-phat-trien-5675.
- Stahl B. C. & Andreou A. & Brey P. & Hatzakis T. & Kirichenko A. & Macnish K. & Laulhé Shaelou S. & Patel A. & Ryan M. & Wright D. (2021). Artificial intelligence for human flourishing - Beyond principles for machine learning. Journal of Business Research, Elsevier, 124(C), 374-388. https://doi.org/10.1016/j.jbusres.2020.11.030
- Manas Wakchaure B. K. Patle, A. K. Mahindrakar (2023). Application of AI techniques and robotics in agriculture: A review. Artificial Intelligence in the Life Sciences, 3, 100057. https://doi.org/10.1016/j.ailsci.2023.100057
- Văn Phong (2023). Cuộc gọi lừa đảo Deepfake là gì, hoạt động như thế nào?. Truy cập tại: https://www.qdnd.vn/giao-duc-khoa-hoc/cac-van-de/cuoc-goi-lua-dao-deepfake-la-gi-hoat-dong-nhu-the-nao-723568
- Hà Linh (2023). Không quân Mỹ lên tiếng về thông tin máy bay AI tiêu diệt người điều khiển. Truy cập tại: https://baotintuc.vn/quan-su/khong-quan-my-len-tieng-ve-thong-tin-may-bay-ai-tieu-diet-nguoi-dieu-khien-20230602204336795.htm.
- Owczarczuk M. (2023). Ethical and regulatory challenges amid artificial intelligence development: an outline of the issue. Ekonomia i Prawo. Economics and Law, 22(2), 295–310. https://doi.org/10.12775/EiP.2023.017.
- European Commission (2021b). Proposal for a regulation of the European Par- liament and of the Council laying down harmonised rules on artificial intelli- gence (Artificial Intelligence Act) and amending certain Union legislative acts (COM/2021/206).
- Müller Vincent C. (2015). Editorial: Risks of artificial intelligence’, in Vincent C. Müller (ed.). Risks of general intelligence (London: CRC Press - Chapman & Hall). http://orcid.org/0000-0002-4144-4957.
- Daisuke Wakabayashi (2018). Self-Driving Uber Car Kills Pedestrian in Arizona, Where Robots Roam. Available at: https://www.nytimes.com/2018/03/19/technology/uber-driverless-fatality.html.
- Nikhil Sonnad (2018). A flawed algorithm led the UK to deport thousands of students. Available at: https://qz.com/1268231/a-toeic-test-led-the-uk-to-deport-thousands-of-students
- PWC (2018). The macroeconnomic impact of artificial intelligence. Available at: https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html.
- BA Koch et al (2022). Response of the European Law Institute: Public Consultation on Civil Liability Adapting liability rules to the digital age and artificial intelligence. Journal of European Tort Law, 25.
- Jon Truby Rafael Dean Brown, Imad Antoine Ibrahim and Oriol Caudevilla Parellada (2021). A Sandbox Approach to Regulating High-Risk Artificial Intelligence Applications. European Journal of Risk Regulation, 13, 270-294, doi:10.1017/err.2021.52.
- Anh Vũ (2023). Luật sư Mỹ bị phạt 5.000 USD do dùng ChatGPT. Truy cập tại: https://laodong.vn/cong-nghe/luat-su-my-bi-phat-5000-usd-do-dung-chatgpt-1208508.ldo
Discussions about the legal liability of AI developers
when their technology causes damage
Master. Nguyen Thi Hanh
University of Law, Hue University
Abstract:
This study analyzed the legal responsibilities imposed on artificial intelligence (AI) developers in three specific cases. In the first case, AI technology is used appropriately according to instructions for the rightful purpose but causing damage. In the second case, AI technology is newly developed without adequate instructions, and those who use this technology during testing processes cause damage. In the last case, AI technology is used for intentional bad purposes. The study also proposed some solutions to minimize the harmful effects of AI technology.
Keywords: artificial intelligence (AI), damages, legal liability, AI technology, developer.