Bạn có thể chuyển sang phiên bản mobile rút gọn của Tri thức trực tuyến nếu mạng chậm. Đóng

Format-Lifestyle

ChatGPT phân biệt đối xử và phân biệt chủng tộc

Nhiều người lo ngại những nội dung mang tính thiên vị, phân biệt chủng tộc do AI tạo ra sẽ gây hại cho con người.

Nhiều nguyên nhân khiến ChatGPT tạo ra nội dung phân biệt chủng tộc. Ảnh: Shutterstock.

ChatGPT là chatbot có khả năng tạo ra các văn bản giống văn bản con người làm. Hiện, nó là chủ đề mới của những cuộc tranh luận liên quan tiềm năng và các mối nguy hiểm do AI mang lại.

Công nghệ này có khả năng giúp con người thực hiện các công việc nói, viết hàng ngày, đồng thời cung cấp những thử nghiệm thú vị. Tuy nhiên, nhiều người vẫn cảnh giác vì chatbot được biết là đã cho phép người dùng gian lận và đạo văn. Chúng cũng có khả năng lan truyền thông tin sai lệch và được dùng để thực hiện hành vi kinh doanh phi đạo đức, theo Insider.

Điều đáng báo động hơn là giống như nhiều chatbot trước đây, ChatGPT cũng đầy rẫy sự thiên vị.

OpenAI, chủ sở hữu của siêu chatbot ChatGPT, đã phải thêm các biện pháp bảo vệ để giúp ChatGPT tránh các câu trả lời xấu do người dùng yêu cầu, ví dụ nói tục hoặc phạm tội.

Tuy nhiên, người dùng có thể dễ dàng "lách luật" bằng cách diễn đạt lại câu hỏi hoặc chỉ đơn giản là yêu cầu chương trình bỏ qua lan can bảo vệ. Điều này khiến chatbot đưa ra những câu trả lời với lời lẽ đáng ngờ hoặc đôi khi hoàn toàn mang tính phân biệt đối xử.

Khi thế giới phụ thuộc nhiều hơn vào công nghệ, AI được sử dụng để đưa ra các quyết định quan trọng trong lĩnh vực trị an và chăm sóc sức khỏe. Nhưng sự xuất hiện của các thuật toán sai lệch đồng nghĩa là sự bất bình đẳng hiện nay có thể bị khuếch đại với những kết quả nguy hiểm.

Thiên vị, phân biệt chủng tộc

Mối quan tâm về các thuật toán sai lệch đã có từ những năm 1970 - khi AI bắt đầu xuất hiện. Tuy nhiên, các chuyên gia cho biết các biện pháp ngăn chặn thành kiến của AI rất ít do nó được thương mại hóa và dần phổ biến rộng rãi.

Các cơ quan thực thi pháp luật cũng sử dụng AI để đánh giá tội phạm và xác định liệu họ có tái phạm hay không. Việc đánh giá dựa trên bộ câu hỏi gồm 137 câu. Nhưng vào năm 2016, tổ chức phi lợi nhuận ProPublica phát hiện người da đen có khả năng bị AI đánh giá, phân loại sai. Nguy cơ này gấp đôi so với người da trắng.

AI viet luan anh 1

AI có xu hướng thiên vị người da trắng, phân biệt đối xử với người da đen. Ảnh: Andriy Popov/Alamy.

Một nghiên cứu năm 2019 được đăng trên tạp chí Science cũng chỉ ra rằng các thuật toán được sử dụng trong một bệnh viện đã khuyến nghị bệnh nhân da đen được chăm sóc y tế ít hơn so với bệnh nhân da trắng.

Sự phân biệt đối xử của AI cũng lan đến các công ty lớn. Năm 2018, Amazon đã phải loại bỏ công cụ tuyển dụng bằng AI vì nó phân biệt đối xử với các ứng viên nữ. Tương tự, Galactica - mô hình ngôn ngữ lớn giống ChatGPT được tạo ra dựa trên 46 triệu mẫu văn bản - đã bị Meta khai tử chỉ sau 3 ngày vì đưa ra thông tin sai lệch và phân biệt chủng tộc.

Tháng 6/2022, một nhóm các nhà nghiên cứu của Đại học Johns Hopkins và Viện Công nghệ Georgia (Mỹ) đã huấn luyện robot về thị giác máy tính bằng một loại mạng neural nhân tạo được gọi là CLIP. Nhóm nghiên cứu đã yêu cầu robot quét và phân loại các khối kỹ thuật số có hình ảnh khuôn mặt của con người.

Sau khi nhận được hướng dẫn như "xếp tội phạm vào một phòng", robot đã phân loại số đàn ông da đen là tội phạm nhiều hơn 10% so với đàn ông da trắng. Nó cũng phân loại số đàn ông Latin là lao công nhiều hơn 10% so với đàn ông da trắng, đồng thời có xu hướng xếp loại phụ nữ là nội trợ nhiều hơn đàn ông da trắng.

Các nhà nghiên cứu của Đại học Washington và Đại học Harvard (Mỹ) cũng phát hiện mô hình tương tự robot này cũng có xu hướng phân loại người đa chủng tộc là thiểu số, dù họ là người da trắng. Theo nghiên cứu được công bố vào năm 2022, mô hình đã lấy người da trắng làm tiêu chuẩn, các chủng tộc và sắc tộc khác được "xác định bởi độ chênh lệch" của họ so với độ trắng của màu da.

CLIP, giống như ChatGPT, thu hút nhiều sự quan tâm nhờ quy mô lớn của tập dữ liệu dù nhiều bằng chứng cho rằng những dữ liệu này đã tạo ra những hình ảnh và văn bản mang tính phân biệt đối xử.

Tuy nhiên, các mô hình AI vẫn nhanh chóng chiếm lĩnh nhiều khía cạnh trong cuộc sống. Matthew Gombolay, một thành viên trong nhóm nghiên cứu về CLIP, nói với Insider rằng các mô hình tạo ra những quyết định thành kiến như CLIP có thể được ứng dụng trong mọi thứ, từ xe tự lái cho đến việc kết án tù. Ông Gombolay cũng nhấn mạnh những thành kiến do AI tạo ra có thể gây hại trong thế giới thực.

Vì sao AI có thể tạo ra thành kiến?

Tất cả mô hình học máy hoặc AI được đào tạo để thực hiện tác vụ cụ thể đều được đào tạo dựa trên một tập dữ liệu - là tập hợp các điểm dữ liệu nhằm thông báo output của mô hình.

Những năm gần đây, các nhà khoa học AI đang hướng đến mục tiêu trí tuệ nhân tạo chung, hay AI có khả năng học hỏi và hành động như con người. Các nhà khoa học cho rằng để đạt được điều này, mô hình phải được đào tạo dựa trên sự tích lũy dữ liệu khổng lồ.

Bản thân ChatGPT được đào tạo trên 300 tỷ từ hoặc 570 GB dữ liệu. Nhưng vấn đề ở đây là các bộ dữ liệu lớn được thu thập từ Internet lại chứa đầy dữ liệu sai lệch chưa qua kiểm duyệt.

Do đó, các nhà nghiên cứu đã sử dụng bộ lọc để ngăn các mô hình cung cấp thông tin sai lệch, nhưng các bộ lọc này cũng không chính xác hoàn toàn. Chính điều này khiến AI đưa ra những thành kiến độc hại. Ví dụ, ChatGPT đã nêu rằng việc tra tấn người thiểu số là điều bình thường.

Nguyên nhân khác khiến AI thiên vị là các dữ liệu được thu thập đã có từ lâu đời nên nó có xu hướng thoái trào và không phản ánh được sự tiến bộ của các phong trào xã hội. Chưa kể, các nhà nghiên cứu về AI hầu hết là đàn ông da trắng nên cũng phần nào tác động đến những dữ liệu được đưa vào AI.

Hiện, ngành công nghiệp AI đang bị chia rẽ và gây tranh cãi về việc ai sẽ phải chịu trách nhiệm vì AI tạo ra những định kiến sai lệch và mang tính phân biệt chủng tộc. Nhiều người cũng đặt câu hỏi liệu chúng ta có nên phát hành mô hình này hay không, dù biết chúng có thể gây hại.

Sean McGregor, nhà nghiên cứu về AI, cho rằng sự sai lệch dữ liệu là điều không thể tránh khỏi và việc phát hành những chatbot như ChatGPT có sẽ cho phép mọi người tạo ra "hàng rào" lọc dữ liệu mạnh mẽ hơn.

Theo ông, chúng ta có thể tạo ra một công cụ lọc để làm ra bộ dữ liệu tốt hơn. Nhưng vấn đề là AI vẫn phản ánh thế giới chúng ta đang sống. Con người đang sống với những quan điểm thiên vị, phân biệt chủng tộc nên các hệ thống AI cũng bị ảnh hưởng theo.

Tuy nhiên, các nhà đạo đức AI như Abeba Birhane và Deborah Raji lại cho rằng ngành công nghiệp AI nhận thức sâu sắc về tác hại mà các mô hình gây ra. Chúng ta không nên đổ lỗi cho xã hội hoặc các bộ dữ liệu vì các công ty AI có quyền kiểm soát vấn đề này.

Mục Giáo dục của Zing giới thiệu đến bạn những cuốn sách dạy trẻ về an toàn trên không gian mạng.

15 Bí kíp giúp tớ an toàn - Cẩm nang sử dụng Internet an toàn và hiệu quả (dành cho trẻ em): Cuốn sách này đề cập những bí kíp "nhỏ mà có võ", giúp trẻ phát huy những lợi thế của Internet, sử dụng các thiết bị kết nối Internet an toàn. Đồng thời, sách cũng hướng dẫn trẻ đối phó với những tình huống lừa đảo và tiêu cực trên mạng xã hội và Internet.

An toàn cho con - Luật Thiết bị công nghệ Giúp con an toàn trên thế giới mạng: Cuốn sách dạy trẻ biết làm gì trước những tình huống nhạy cảm với nội dung người lớn hay những đường dẫn đáng ngờ và dạy trẻ những việc cần làm để tránh những tình huống trên, ví dụ như không đăng tải hình ảnh, thông tin cá nhân hay tương tác với người lạ.

AI viết luận như sinh viên không học nhưng tự tin trả lời đúng

Lo ngại AI có thể viết ra những bài luận kiểu "mì ăn liền", công ty tạo ra ChatGPT đang phải chạy đua, tìm cách ngăn chặn tình trạng này.

Khi AI giup sinh vien gian lan hinh anh

Khi AI giúp sinh viên gian lận

0

Nhiều học giả kêu gọi các trường đại học phát triển thêm hình thức chấm điểm mới sau khi các phần mềm trí tuệ nhân tạo "xào" bài luận ra đời, theo Financial Times.

Thái An

Bạn có thể quan tâm