Cơ quan chức năng Mỹ đang lấy ý kiến của công chúng về những biện pháp trách nhiệm giải trình tiềm năng đối với các hệ thống trí tuệ nhân tạo (AI), khi có nhiều câu hỏi về tác động của nó đối với an ninh và giáo dục quốc gia.
ChatGPT của OpenAI gần đây thu hút sự chú ý đặc biệt từ công chúng nhờ khả năng trả lời nhanh chóng trước nhiều loại câu hỏi. Nó cũng khiến các nhà lập pháp Mỹ lưu tâm vì là ứng dụng cá nhân phát triển nhanh nhất lịch sử, với hơn 100 triệu người dùng hàng tháng.
Mới đây, Cục Quản lý Thông tin và Viễn thông Quốc gia, một cơ quan của Bộ Thương mại Mỹ đã tư vấn cho Nhà Trắng về chính sách viễn thông và thông tin, muốn có ý kiến đóng góp vì “sự quan tâm pháp lý ngày càng tăng” đối với “cơ chế trách nhiệm giải trình” của AI.
Cơ quan này muốn biết, liệu có biện pháp nào có thể được đưa ra để đảm bảo “rằng các hệ thống AI là hợp pháp, hiệu quả, có đạo đức, an toàn và đáng tin cậy hay không.”
“Các hệ thống AI có trách nhiệm có thể mang lại những lợi ích to lớn, nhưng chỉ khi chúng ta giải quyết được những hậu quả và tác hại tiềm ẩn của chúng. Để các hệ thống này phát huy hết tiềm năng, các công ty và người tiêu dùng cần có thể tin tưởng chúng,” Quản trị viên NTIA Alan Davidson cho biết.
Trước đó, một nhóm đạo đức công nghệ, Trung tâm Trí tuệ Nhân tạo và Chính sách Kỹ thuật số tại Mỹ đã yêu cầu Ủy ban Thương mại Liên bang Mỹ ngăn OpenAI phát hành các bản phát hành thương mại mới của GPT-4 vì cho rằng, nó “thiên vị, lừa đảo và có rủi ro đối với quyền riêng tư và an toàn công cộng.”
Tỷ phú Elon Musk, đồng sáng lập Apple Steve Wozniak cùng hơn 1.800 chuyên gia khác đã ký vào thư ngỏ, yêu cầu tạm dừng nghiên cứu các hệ thống AI mạnh hơn GPT-4.
“Các phòng thí nghiệm AI và chuyên gia độc lập nên dùng khoảng dừng này để cùng nhau phát triển và áp dụng bộ giao thức an toàn chung đối với thiết kế và phát triển AI tiên tiến”, nội dung bức thư nêu.
Dù vậy, lá thư gây tranh cãi khi một số chữ ký bị chủ nhân cho là giả mạo. Chẳng hạn, nhà khoa học AI của Meta, Yann LeCun, lên Twitter phủ nhận mình ủng hộ thư ngỏ.