Vào thứ Hai, ngày 22 tháng 5 năm 2023, một tài khoản Twitter đã được xác minh có tên “Bloomberg Feed” đã chia sẻ một dòng tweet khẳng định đã có vụ nổ ở Lầu Năm Góc kèm theo một hình ảnh. Nếu bạn đang tự hỏi điều này có liên quan gì đến trí tuệ nhân tạo (AI), thì hình ảnh đó là do AI tạo ra, với dòng tweet nhanh chóng lan truyền và khiến thị trường chứng khoán sụt giảm trong thời gian ngắn. Mọi thứ có thể còn tồi tệ hơn nhiều - một lời nhắc nhở rõ ràng về sự nguy hiểm của trí tuệ nhân tạo.
Mối nguy hiểm của trí tuệ nhân tạo
Chúng ta không chỉ phải lo lắng về tin giả. Có nhiều rủi ro trước mắt hoặc tiềm ẩn liên quan đến AI, từ những rủi ro liên quan đến quyền riêng tư và bảo mật cho đến các vấn đề thiên vị và bản quyền. Chúng ta sẽ đi sâu vào một số mối nguy hiểm về trí tuệ nhân tạo này, xem những gì đang được thực hiện để giảm thiểu chúng hiện tại và trong tương lai, đồng thời hỏi xem liệu rủi ro của AI có lớn hơn lợi ích hay không.
Tin giả
Quay lại thời điểm deepfake lần đầu tiên xuất hiện, người ta đã nảy sinh lo ngại rằng chúng có thể bị sử dụng với mục đích xấu. Điều tương tự cũng có thể xảy ra với làn sóng Trình tạo hình ảnh AI mới, như DALL-E 2, Midjourney hoặc DreamStudio. Vào ngày 28 tháng 3 năm 2023, Những hình ảnh do AI tạo ra của Đức Thánh Cha Phanxicô giả trong chiếc áo khoác phao Balenciaga màu trắng và tận hưởng một số cuộc phiêu lưu, bao gồm cả trượt ván và chơi bài poker, đã được lan truyền rộng rãi. Trừ khi bạn nghiên cứu kỹ các hình ảnh, thật khó để phân biệt những hình ảnh này với thực tế.
Mặc dù ví dụ về giáo hoàng chắc chắn là có chút thú vị, nhưng hình ảnh (và dòng tweet kèm theo) về Lầu Năm Góc lại không hề thú vị. Những hình ảnh giả mạo do AI tạo ra có khả năng gây tổn hại đến danh tiếng, chấm dứt hôn nhân hoặc sự nghiệp, tạo ra tình trạng bất ổn chính trị và thậm chí gây ra chiến tranh nếu sử dụng sai người - nói tóm lại, những hình ảnh do AI tạo ra này có khả năng cực kỳ nguy hiểm nếu bị lạm dụng.
Với trình tạo hình ảnh AI hiện có sẵn miễn phí cho mọi người sử dụng và Photoshop thêm trình tạo hình ảnh AI với phần mềm phổ biến của nó, cơ hội để thao túng hình ảnh và tạo tin tức giả sẽ lớn hơn bao giờ hết.
Quyền riêng tư, bảo mật và hack
Quyền riêng tư và bảo mật cũng là những mối lo ngại lớn khi nói đến rủi ro của AI, với một số quốc gia đã cấm ChatGPT của OpenAI. Ý đã cấm mô hình này do lo ngại về quyền riêng tư, tin rằng nó không tuân thủ Quy định bảo vệ dữ liệu chung của Châu Âu (GDPR), trong khi chính phủ Trung Quốc, Triều Tiên và Nga đã cấm nó do lo ngại nó sẽ truyền bá thông tin sai lệch..
Vậy tại sao chúng ta lại quan tâm đến quyền riêng tư khi nói đến AI? Ứng dụng AI và các hệ thống thu thập lượng lớn dữ liệu để tìm hiểu và đưa ra dự đoán. Nhưng dữ liệu này được lưu trữ và xử lý như thế nào? Có nguy cơ thực sự xảy ra tình trạng vi phạm dữ liệu, bị hack và thông tin rơi vào tay kẻ xấu.
Không chỉ dữ liệu cá nhân của chúng ta gặp rủi ro. Việc hack AI là một rủi ro thực sự - nó chưa xảy ra, nhưng nếu những kẻ có mục đích xấu có thể xâm nhập vào hệ thống AI thì điều này có thể gây ra hậu quả nghiêm trọng. Ví dụ: tin tặc có thể điều khiển phương tiện không người lái, hack hệ thống bảo mật AI để xâm nhập vào các địa điểm có độ an toàn cao và thậm chí hack hệ thống vũ khí có bảo mật AI.
Các chuyên gia tại Cơ quan Dự án Nghiên cứu Quốc phòng Tiên tiến (DARPA) của Bộ Quốc phòng Hoa Kỳ nhận ra những rủi ro này và đang làm việc trong dự án Đảm bảo tính mạnh mẽ của AI chống lại sự lừa dối (GARD) của DARPA, giải quyết vấn đề ngay từ đầu. Mục tiêu của dự án là đảm bảo khả năng chống hack và giả mạo được tích hợp vào các thuật toán và AI.
Vi phạm bản quyền
Một mối nguy hiểm khác của AI là vi phạm bản quyền. Điều này nghe có vẻ không nghiêm trọng như một số mối nguy hiểm khác mà chúng tôi đã đề cập, nhưng sự phát triển của các mô hình AI như GPT-4 khiến mọi người có nguy cơ vi phạm cao hơn.
Mỗi khi bạn yêu cầu ChatGPT tạo nội dung nào đó cho bạn — cho dù đó là một bài đăng blog về du lịch hay tên mới cho doanh nghiệp của bạn — thì bạn đang cung cấp cho ChatGPT thông tin mà sau đó nó sẽ sử dụng để trả lời các truy vấn trong tương lai. Thông tin mà nó cung cấp cho bạn có thể vi phạm bản quyền của người khác, đó là lý do tại sao việc sử dụng trình phát hiện đạo văn và chỉnh sửa bất kỳ nội dung nào do AI tạo ra trước khi xuất bản lại rất quan trọng.
Thành kiến xã hội và dữ liệu
AI không phải là con người nên không thể thiên vị được, phải không? Sai. Con người và dữ liệu được dùng để đào tạo các mô hình AI và chatbot, nghĩa là dữ liệu hoặc tính cách thiên vị sẽ dẫn đến AI thiên vị. Có hai loại thành kiến trong AI: thành kiến xã hội và thành kiến dữ liệu.
Với nhiều thành kiến tồn tại trong xã hội hàng ngày, điều gì sẽ xảy ra khi những thành kiến này trở thành một phần của AI? Các lập trình viên chịu trách nhiệm đào tạo mô hình có thể có những kỳ vọng sai lệch, sau đó sẽ xâm nhập vào các hệ thống AI..
Hoặc dữ liệu dùng để đào tạo và phát triển AI có thể không chính xác, sai lệch hoặc được thu thập với mục đích xấu. Điều này dẫn đến sai lệch dữ liệu, có thể nguy hiểm như sai lệch xã hội. Ví dụ: nếu một hệ thống nhận dạng khuôn mặt được đào tạo sử dụng chủ yếu khuôn mặt của người da trắng, thì hệ thống đó có thể gặp khó khăn trong việc nhận dạng những người thuộc các nhóm thiểu số, từ đó kéo dài sự áp bức.
Robot đảm nhận công việc của chúng ta
Sự phát triển của các chatbot như ChatGPT và Google Bard đã mở ra một mối lo hoàn toàn mới xung quanh AI: Nguy cơ robot sẽ cướp đi công việc của chúng ta. Chúng ta đã chứng kiến các nhà văn trong ngành công nghệ bị thay thế bởi AI, các nhà phát triển phần mềm lo lắng rằng họ sẽ mất việc vào tay bot và các công ty sử dụng ChatGPT để tạo nội dung blog và nội dung mạng xã hội thay vì thuê người viết.
Theo Báo cáo Tương lai Việc làm năm 2020 của Diễn đàn Kinh tế Thế giới, AI dự kiến sẽ thay thế 85 triệu việc làm trên toàn thế giới vào năm 2025. Ngay cả khi AI không thay thế được nhà văn thì nó cũng đã được nhiều người sử dụng như một công cụ. Những người làm công việc có nguy cơ bị AI thay thế có thể cần phải thích nghi để tồn tại. Ví dụ: người viết có thể trở thành kỹ sư nhắc nhở về AI, cho phép họ làm việc với các công cụ như ChatGPT để tạo nội dung thay vì bị thay thế bởi các mô hình này.
Rủi ro AI tiềm ẩn trong tương lai
Đây đều là những rủi ro trước mắt hoặc sắp xảy ra, nhưng còn một số mối nguy hiểm ít có khả năng xảy ra nhưng vẫn có thể xảy ra của AI mà chúng ta có thể thấy trong tương lai thì sao? Chúng bao gồm những thứ như AI được lập trình để gây hại cho con người, chẳng hạn như vũ khí tự động được huấn luyện để giết người trong chiến tranh.
Sau đó, có nguy cơ AI có thể tập trung toàn lực vào mục tiêu đã được lập trình của mình, phát triển các hành vi phá hoại khi cố gắng hoàn thành mục tiêu đó bằng mọi giá, ngay cả khi con người cố gắng ngăn chặn điều này xảy ra.
Skynet đã dạy chúng ta điều gì sẽ xảy ra khi AI trở nên có tri giác. Tuy nhiên, mặc dù kỹ sư Blake Lemoine của Google có thể đã cố gắng thuyết phục mọi người rằng LaMDA, trình tạo chatbot thông minh nhân tạo của Google đã có tri giác vào tháng 6 năm 2022, nhưng rất may cho đến nay vẫn chưa có bằng chứng nào cho thấy điều đó là đúng.
Những thách thức của quy định về AI
Vào Thứ Hai, ngày 15 tháng 5 năm 202, CEO OpenAI Sam Altman tham dự phiên điều trần quốc hội đầu tiên về trí tuệ nhân tạo, cảnh báo: “Nếu công nghệ này gặp trục trặc, nó có thể sẽ gặp trục trặc nghiêm trọng.” OpenAI CO đã nói rõ rằng ông ủng hộ quy định và đưa nhiều ý tưởng của riêng mình ra phiên điều trần. Vấn đề là AI đang phát triển với tốc độ như vậy, thật khó để biết bắt đầu từ đâu với quy định..
Quốc hội muốn tránh mắc phải những sai lầm tương tự như khi bắt đầu kỷ nguyên truyền thông xã hội và một nhóm chuyên gia cùng với Lãnh đạo Đa số Thượng viện Chuck Schumer đang nghiên cứu các quy định yêu cầu các công ty tiết lộ nguồn dữ liệu nào họ đã sử dụng để đào tạo người mẫu và người đã đào tạo họ. Tuy nhiên, có thể phải mất một thời gian nữa chính xác cách thức quản lý AI sẽ trở nên rõ ràng và chắc chắn sẽ có phản ứng dữ dội từ các công ty AI.
Mối đe dọa của trí tuệ nhân tạo tổng hợp
Cũng có nguy cơ tạo ra trí thông minh nhân tạo tổng hợp (AGI) có thể hoàn thành bất kỳ nhiệm vụ nào mà con người (hoặc động vật) có thể thực hiện. Thường được đề cập trong các bộ phim khoa học viễn tưởng, có lẽ chúng ta vẫn còn phải mất hàng thập kỷ nữa mới có được sự sáng tạo như vậy, nhưng nếu và khi chúng ta tạo ra AGI, nó có thể gây ra mối đe dọa cho nhân loại.
Nhiều nhân vật của công chúng đã tán thành niềm tin rằng AI gây ra mối đe dọa hiện hữu cho con người, bao gồm cả Stephen Hawking, Bill Gates và thậm chí cả cựu Giám đốc điều hành Google Eric Schmidt. Ông đã tuyên bố: “Trí tuệ nhân tạo có thể gây ra những rủi ro hiện hữu và các chính phủ cần biết cách để đảm bảo công nghệ không bị kẻ ác lạm dụng.”
Vậy trí tuệ nhân tạo có nguy hiểm không và rủi ro của nó có lớn hơn lợi ích của nó không? Ban bồi thẩm vẫn chưa đồng ý với vấn đề đó, nhưng chúng tôi đã thấy bằng chứng về một số rủi ro xung quanh chúng ta ngay bây giờ. Những mối nguy hiểm khác ít có khả năng xảy ra sớm, nếu có. Tuy nhiên, có một điều rõ ràng: không nên đánh giá thấp sự nguy hiểm của AI. Điều quan trọng nhất là chúng tôi phải đảm bảo AI được quản lý hợp lý ngay từ đầu để giảm thiểu và hy vọng giảm thiểu mọi rủi ro trong tương lai.
.