Tác động xã hội khó lường của thuật toán AI và ba thách thức với AI

Trí tuệ nhân tạo có thể ẩn chứa nhiều nguy cơ tới tương lai của con người, nhưng lại chưa được tìm hiểu và nhận thức rõ ràng.

Khi nói đến mối đe dọa từ AI, nhiều người nghĩ đến những cỗ máy hủy diệt thế giới như Skynet hay Matrix. Tiếp đó là nạn thất nghiệp khi AI chiếm hết công việc của con người. Viễn cảnh đó có trở thành hiện thực hay không vẫn còn gây nhiều tranh cãi. Nhưng giới khoa học cho rằng trí tuệ nhân tạo, bên cạnh những lợi ích dễ thấy, cũng tạo ra những mối nguy nhất định.

AI đang được phát triển và ứng dụng trong nhiều lĩnh vực của cuộc sống, từ việc tính toán khả năng bùng phát ổ dịch Covid-19 mới, phân tích nguồn cung cho hãng dầu khí, đánh giá hành động của một chính phủ, cho tới việc dự đoán kết quả các trận đấu thể thao. Tuy nhiên, nhà toán học Cathy O'Neil khuyến cáo con người có thể dễ bị tổn thương nếu tin một cách mù quáng vào những thuật toán AI khi cần đưa ra quyết định nhạy cảm.

Phần mềm nhận diện cảm xúc của tài xế đang được phát triển.

Phần mềm nhận diện cảm xúc của tài xế đang được phát triển.

Nguyên nhân nằm ở tính không rõ ràng của AI. Về cơ bản, câu hỏi đặt ra là làm sao con người biết trí tuệ nhân tạo đang đưa ra quyết định chính xác. Vấn đề này đặc biệt quan trọng bởi AI đang được ứng dụng trong nhiều mặt của cuộc sống, như xử lý đề xuất vay tiền, tính điểm tín dụng, xếp hạng giáo viên, dự đoán khả năng tái phạm của tội phạm và nhiều lĩnh vực nhạy cảm khác.

Hồi giữa tháng 3, nhiều tài khoản người dùng Facbook tại Việt Nam và trên thế giới bất ngờ bị xóa các bài viết dù không hề vi phạm tiêu chuẩn cộng đồng của mạng xã hội này. Tương tự, một số thành viên YouTube cũng bị xóa video không rõ nguyên nhân. YouTube sau đó thừa nhận do nhân viên làm việc tại nhà trong đại dịch, việc kiểm duyệt nội dung phụ thuộc vào trí tuệ nhân tạo, dẫn đến những tình huống bị đánh giá sai. 

"Chúng ta có thể thấy hệ thống máy học làm việc kém hiệu quả ra sao khi thiếu sự giám sát từ con người", Alex Stamos, cựu giám đốc an ninh của Facebook, nhận định.

Trong ví dụ trên, sai lầm của AI chỉ khiến người dùng thấy phiền toái. Tuy nhiên, những thuật toán này có thể gây ra tác hại lớn hơn nhiều. Bà O'Neil đưa ra một số kịch bản tiềm tàng như hệ thống tín dụng trừ điểm sai đối tượng, đưa ra hình phạt nặng hơn cho nghi phạm dựa trên chủng tộc và sắc tộc của họ, hệ thống chấm điểm giáo viên sa thải người làm tốt trong khi khen thưởng người gian lận, hay AI thương mại đưa ra quyết định mang lại doanh thu tiền tỷ USD và đánh đổi bằng thiệt hại của những người thu nhập thấp.

Phần mềm truyền thống được lập trình theo những quy tắc chặt chẽ của các kỹ sư, có thể được kiểm tra và can thiệp, cho phép truy dấu tới dòng code gây ra lỗi. Ngược lại, thuật toán học máy phát triển tính năng bằng cách phân tích những dữ liệu huấn luyện và xây dựng mô hình suy luận thống kê. Điều này khiến nhà phát triển không thể quyết định hành vi cụ thể của thuật toán AI.

Chẳng hạn, năm 2016, "thiếu nữ ảo" Tay của Microsoft ra mắt trên Twitter với lời giới thiệu: "Bạn càng trò chuyện, Tay càng trở nên thông minh và gần gũi với bạn". Tuy nhiên, chỉ sau vỏn vẹn một ngày, hãng phần mềm phải xóa chatbot này vì cư dân mạng dạy Tay chửi bậy, ủng hộ phát xít, bài người Do Thái... và AI này cũng thể hiện mình là "học sinh giỏi" khi bắt chước theo rất nhanh.

Hệ thống tính điểm sử dụng AI.

Thuật toán học máy dựa vào dữ liệu chất lượng cao để huấn luyện và cải thiện độ chính xác. Vấn đề là những người dễ bị tổn thương bởi AI lại thường nằm trong nhóm khó thu thập thông tin chất lượng nhất, khiến họ càng có nguy cơ đối mặt với những quyết định sai lầm của máy móc. Và khi AI đưa ra quyết định sai lầm, nó tạo ra thông tin sai lệch, ảnh hưởng đến quá trình hoàn thiện trong tương lai. Điều này tạo ra một vòng lặp vô hạn.

Ví dụ, người nghèo thường có điểm tín dụng thấp và phải sống trong những khu vực có mật độ tội phạm cao, bao quanh là những người có hoàn cảnh tương tự. Các hệ thống AI sẽ thu thập dữ liệu và gửi tới họ hàng loạt quảng cáo về khoản vay nặng lãi hoặc dưới chuẩn. Nếu bị truy tố, những người này sẽ phải nhận mức án cao hơn.

Dữ liệu trên khi được nhập vào hệ thống AI khác, hệ thống đó sẽ xếp họ vào nhóm có nguy cơ cao, khiến họ không thể xin được việc và chịu mức lãi suất cao hơn khi vay tiền, thuê xe hoặc mua bảo hiểm. Điều đó tiếp tục hạ mức tín dụng của họ, tạo nên vòng lặp bất tận.

"Nghèo khổ trong thế giới phụ thuộc nhiều vào AI có thể ngày càng nguy hiểm và tốn kém", O'Neil cho hay.

Một ví dụ gần gũi hơn là thuật toán xếp hạng nội dung của hàng triệu người dùng trên Facebook mỗi ngày. Nếu có sai sót, chúng dễ bị lợi dụng để phát tán tin giả, tin giật gân. Ngay cả khi không có ý định xấu, AI vẫn có thể gây hại như thiên vị những nội dung nhất định, chọn lọc quan điểm... khiến người dùng ít được tiếp cận những góc nhìn khác hơn, dần dần ảnh hưởng đến quan điểm, góc nhìn của họ về một số vấn đề nhất định.

Nhà toán học O'Neil cho rằng những vấn đề này chỉ có thể được giải quyết nếu các nhà phát triển hiểu rõ giới hạn của thuật toán AI hiện nay. "Sở hữu hệ thống tự động, giúp con người đưa ra quyết định nghe rất hấp dẫn, nhưng chúng ta cần hiểu khi nào con người phải hứng chịu hậu quả từ những quyết định đó. Đôi khi, điều đó có nghĩa là phải đặt công bằng lên trước lợi nhuận", O'Neil nhận xét

Ba thách thức với AI

AI cũng giống mọi cỗ máy, luôn có tỷ lệ sự cố trên 0% và không bao giờ đạt trạng thái hoàn hảo.

Tỷ lệ sự cố có thể chấp nhận của máy bay là bao nhiêu? Chắc chắn sẽ luôn cao hơn 0%, dù con người cố tìm mọi cách để cải thiện con số này. Điều tương tự đúng với cả AI.

Điều đó không có nghĩa là AI không mang lại giá trị thực tế. Mọi người cần hiểu vì sao máy móc mắc lỗi, cũng có nghĩa là hiểu rõ ba thách thức ngăn việc phát triển AI hoàn hảo.

Thiên vị ngầm 

Những suy nghĩ vô thức có thể che mờ lý lẽ và hành động của từng người. Thiên vị ngầm đóng vai trò không nhỏ trong phân biệt đối xử giữa con người với nhau, nó cũng ngăn các nhà khoa học sử dụng AI để giảm định kiến trong xã hội. AI học hỏi từ con người, nếu thiên vị ngầm xuất hiện trong quá trình này, AI sẽ học cách thiên vị của con người.

Khi AI làm việc, nó sẽ đào sâu thêm sự thiên vị, dù công việc của cỗ máy có thể phục vụ lợi ích xã hội.

Một ví dụ cụ thể là công nghệ sàng lọc gia đình Allegheny, được phát triển tại Mỹ để dự đoán những đứa trẻ mồ côi nào có nguy cơ bị bố mẹ nuôi bạo hành. Quá trình triển khai giải pháp này gặp hàng loạt vấn đề, nhất là khi Sở Dịch vụ Nhân sinh tại các bang thừa nhận nó có thể thiên vị về chủng tộc và thu nhập.

Những chương trình phát hiện khả năng bỏ mặc trẻ em thường bị nhầm lẫn khi đánh đồng các bậc cha mẹ sống trong nghèo khổ với tiêu chí vô tâm hoặc ngược đãi con cái. Nhiều bước đi đã được thực hiện nhằm hạn chế nguy cơ thiên vị ngầm khi những vấn đề như vậy được phát hiện.

Tuy nhiên, loại trừ hoàn toàn vấn đề khó hơn nhiều, khi con người không thể xử lý toàn bộ những biến số chưa được biết tới, cũng như bối cảnh xã hội. Thế nào là hành vi "đúng đắn" hoặc "công bằng"? Nếu con người không thể nhận diện, định nghĩa và giải quyết các câu hỏi như vậy, họ sẽ không thể dạy máy móc làm điều tương tự. Đây là động lực chủ yếu khiến AI không thể trở nên hoàn hảo.

Dữ liệu

Dữ liệu là nguồn nhiên liệu cho AI. Máy tính học hỏi qua giá trị thật của dữ liệu, như quy tắc để ra quyết định chứ không phải bản thân những quyết định của nó. Máy tính đòi hỏi lượng dữ liệu rất lớn để phát hiện mô hình và những mối tương quan trong thông tin đó.

Nếu dữ liệu không hoàn thiện hoặc có lỗi, AI không thể học tốt. Covid-19 cung cấp một ví dụ điển hình khi Trung tâm Kiểm soát và Phòng ngừa Dịch bệnh Mỹ (CDC), Tổ chức Y tế Thế giới (WHO), Dự án Theo dõi Covid (CTP) và Đại học John Hopkins đều đưa ra những con số chênh lệch rõ rệt.

Sự khác biệt như vậy sẽ gây khó khăn khiến AI khó phát hiện mô hình dữ liệu, chưa kể tìm ra những ý nghĩa ẩn trong khối thông tin đó. Đó là chưa kể tới trường hợp dữ liệu sai hoặc không đầy đủ, như tìm cách dạy AI về chăm sóc sức khỏe nhưng chỉ cung cấp dữ liệu về phụ nữ.

Ngoài ra, còn một thử thách khi người dùng cung cấp quá nhiều thông tin, chúng có thể không liên quan, vô nghĩa hoặc thậm chí gây phân tâm. IBM từng cho hệ thống Watson đọc trang Urban Dictionary và công cụ này không thể phân biệt khi nào cần dùng ngôn ngữ bình thường và lúc nào có thể sử dụng từ lóng hoặc chửi bậy. Vấn đề nghiêm trọng tới mức AI phải xóa Urban Dictionary khỏi bộ nhớ của Watson.

Một AI cần học 100 triệu từ để thông thạo một ngôn ngữ, trong khi một đứa trẻ chỉ cần 15 triệu từ. Nó cho thấy các nhà phát triển chưa thể xác định loại dữ liệu nào có ý nghĩa, khiến AI tập trung vào những thông tin thừa, gây tốn thời gian hoặc thậm chí là xác định sai mô hình dữ liệu.

Sự kỳ vọng

Con người luôn mắc sai lầm, nhưng họ lại kỳ vọng máy móc trở nên hoàn hảo. Trong lĩnh vực chăm sóc sức khỏe, giới chuyên gia ước tính tỷ lệ chẩn đoán sai có thể lên tới 20%, tức là một trong năm bệnh nhân tại Mỹ sẽ bị đoán sai bệnh.

Khi được thông báo số liệu và trường hợp giả định AI hỗ trợ chẩn đoán cho tỷ lệ lỗi khoảng 0,001%, phần lớn người được khảo sát vẫn chọn bác sĩ con người. Lý do là họ cho rằng tỷ lệ chẩn đoán sai của AI quá cao, ngay cả khi nó thấp hơn nhiều so với con người. Mọi người kỳ vọng AI trở nên hoàn hảo, tệ hơn là trông đợi người huấn luyện AI cũng hoàn hảo.

Ngày 23/3/2016, Microsoft khởi động Twitter bot mang tên "Tay" (Thinking About You). Tập đoàn Mỹ đã huấn luyện AI có khả năng ngôn ngữ và tương tác của một cô gái 19 tuổi, sau đó đưa nó ra xã hội. Microsoft phải tắt Tay chỉ sau 16 tiếng và 96.000 dòng tweet, bởi nó đã biến thành một kẻ phân biệt chủng tộc và giới tính, thậm chí còn tung hô chủ nghĩa phát xít.

Một số người đã dạy ngôn ngữ nổi loạn cho Tay để phá hoại, trong khi Microsoft không nghĩ tới việc huấn luyện cho nó về hành vi không phù hợp, khiến Tay không có nền tảng hoặc lý do để hiểu rằng những ý đồ xấu có tồn tại. Thử nghiệm xã hội của Microsoft đã thất bại, trở thành minh chứng về xã hội con người hơn là giới hạn của AI.

"Ba thử thách này cho thấy AI sẽ không bao giờ trở nên hoàn hảo, đó không phải thuốc trị bách bệnh mà nhiều người kỳ vọng. AI có thể làm nhiều thứ phi thường cho loài người, như hồi phục khả năng cơ động cho người mất chân tay, hoặc cải thiện khả năng sản xuất lương thực mà lại dùng ít tài nguyên hơn. Tuy nhiên, mọi người cần nhớ rằng AI không bao giờ hoàn hảo, cũng giống chúng ta", ký giả Neil Sahota của Forbes nhận xét.

Fivestar: 
Average: 5 (1 vote)