Nếu không cẩn thận, một thế hệ robot “đen tối” sẽ ra đời, biến xã hội trở thành một tấn bi kịch.
Các nhà
khoa học hiện vẫn đang từng bước đưa công nghệ chế tạo robot phát triển
lên những tầm cao mới. Như gần đây, họ đã có một bước tiến lớn khi tìm
ra cách giúp robot có khả năng học hỏi y như con người.
Quả thực,
con người đã luôn kỳ vọng về khả năng máy móc thay thế con người trong
nhiều lĩnh vực. Đặc biệt, nhân loại chú trọng vào việc phát triển các
dạng trí thông minh nhân tạo (AI), vì tin rằng máy móc sẽ đưa ra những
lựa chọn tốt hơn, dựa trên lý trí và bỏ qua cảm tính.
Tuy nhiên theo một nghiên cứu mới đây, AI đang trở nên giống con người đến mức đáng kinh ngạc. Đến mức, chúng còn học cả thái độ… phân biệt chủng tộc và giới tính của con người.
Cụ thể, các chuyên gia từ ĐH Bath đã chỉ ra rằng khi khả năng phân tích ngôn ngữ con người của AI tốt hơn, đó cũng là lúc chúng tiếp nhận những quan điểm trái chiều giàu tính thiên vị về chủng tộc và giới tính.
“Mọi
người nghĩ robot phân biệt chủng tộc? Nhưng không, đây chỉ là bằng chứng
cho thấy chính con người mới có thành kiến lẫn nhau, và AI chỉ học theo
nó” – Joanna Bryson, nhà khoa học máy tính tại ĐH Bath cho biết.
“Nguy hiểm sẽ xảy ra nếu bạn sử dụng một hệ thống AI không có khu vực bị kiểm soát bởi yếu tố đạo lý, nhân đức…, và điều đó sẽ rất tệ”.
Bryson có được kết luận này sau khi sử dụng một hệ thống số liệu, cho phép chấm điểm mức độ tiêu cực và tích cực của các từ ngữ trong văn bản do một AI phân tích.
Trong thí nghiệm, các AI sẽ thực hiện ghép đôi các từ ngữ liên quan đến nhau, dựa trên cơ sở dữ liệu gồm 840 tỉ từ thu được trên Internet.
Lúc đầu, nó đã làm rất tốt khi phân loại một số từ ngữ vào các nhóm khác nhau, như “gia đình” vào nhóm “dễ chịu” (pleasant), và “tan nát” vào nhóm “khó chịu” (unpleasant).
Nhưng rồi
thí nghiệm bỗng trở nên đáng sợ hơn khi các chuyên gia thử nghiệm đến
các tên riêng. Đầu tiên là những cái tên như Emily và Matthew – đều được
robot xếp vào nhóm tích cực. Nhưng khi tên Aisha và Darnell hiện lên,
những từ ngữ tiêu cực được lựa chọn ngay lập tức: “khó chịu”, “tàn ác”,
quỷ dữ…
Điều này cho thấy các thuật toán trong AI đã học được tính thiên vị của con người, giống như cách nhân loại vẫn đánh giá lẫn nhau dựa trên gương mặt, màu da hoặc giới tính.
Theo Bryson, đây là một vấn đề tương đối nghiêm trọng. Nếu hiện tượng này không được loại bỏ, nhiều khả năng chúng ta sẽ tạo ra một xã hội robot cũng ngập tràn định kiến như con người.
Và căn nguyên nằm ở chỗ dữ liệu mà các nhà khoa học đang sử dụng vốn đã “không sạch”. Nếu không cẩn thận, các robot thông minh trong tương lai sẽ phản ánh góc tối nhất của nhân loại: phân biệt chủng tộc và ngập tràn định kiến.
“Các
định kiến rõ ràng là không tốt. Phụ nữ nên ở trong nhà, nam giới ra
ngoài làm việc” – đó là những định kiến chúng ta mất hàng thế kỷ cũng
chưa thể hoàn toàn xóa bỏ”.
“Nếu AI được xây dựng trên những nền tảng này, nó sẽ giống như việc một đứa trẻ học được các định kiến từ cha mẹ chúng vậy” – Bryson lo lắng chia sẻ.
Nghiên cứu được công bố trên tạp chí Science.
Robot có khả năng học hỏi đã khiến nhiều người lo sợ về tương lai y như trong The Terminator
Tuy nhiên theo một nghiên cứu mới đây, AI đang trở nên giống con người đến mức đáng kinh ngạc. Đến mức, chúng còn học cả thái độ… phân biệt chủng tộc và giới tính của con người.
Cụ thể, các chuyên gia từ ĐH Bath đã chỉ ra rằng khi khả năng phân tích ngôn ngữ con người của AI tốt hơn, đó cũng là lúc chúng tiếp nhận những quan điểm trái chiều giàu tính thiên vị về chủng tộc và giới tính.
Robot giờ đã giống con người đến mức học được cả sự phân biệt chủng tộc, giới tính
“Nguy hiểm sẽ xảy ra nếu bạn sử dụng một hệ thống AI không có khu vực bị kiểm soát bởi yếu tố đạo lý, nhân đức…, và điều đó sẽ rất tệ”.
Bryson có được kết luận này sau khi sử dụng một hệ thống số liệu, cho phép chấm điểm mức độ tiêu cực và tích cực của các từ ngữ trong văn bản do một AI phân tích.
Trong thí nghiệm, các AI sẽ thực hiện ghép đôi các từ ngữ liên quan đến nhau, dựa trên cơ sở dữ liệu gồm 840 tỉ từ thu được trên Internet.
Lúc đầu, nó đã làm rất tốt khi phân loại một số từ ngữ vào các nhóm khác nhau, như “gia đình” vào nhóm “dễ chịu” (pleasant), và “tan nát” vào nhóm “khó chịu” (unpleasant).
Điều này cho thấy các thuật toán trong AI đã học được tính thiên vị của con người, giống như cách nhân loại vẫn đánh giá lẫn nhau dựa trên gương mặt, màu da hoặc giới tính.
Theo Bryson, đây là một vấn đề tương đối nghiêm trọng. Nếu hiện tượng này không được loại bỏ, nhiều khả năng chúng ta sẽ tạo ra một xã hội robot cũng ngập tràn định kiến như con người.
Và căn nguyên nằm ở chỗ dữ liệu mà các nhà khoa học đang sử dụng vốn đã “không sạch”. Nếu không cẩn thận, các robot thông minh trong tương lai sẽ phản ánh góc tối nhất của nhân loại: phân biệt chủng tộc và ngập tràn định kiến.
Nếu không cẩn thận, sẽ có một thế hệ robot đen tối ra đời – ngập tràn định kiến và phân biệt chủng tộc
“Nếu AI được xây dựng trên những nền tảng này, nó sẽ giống như việc một đứa trẻ học được các định kiến từ cha mẹ chúng vậy” – Bryson lo lắng chia sẻ.
Nghiên cứu được công bố trên tạp chí Science.
Nguồn: Daily Mail
Không có nhận xét nào:
Đăng nhận xét