金融

Colorado là bang đầu tiên tiến hành cố gắng quản lý vai trò ẩn của trí tuệ nhân tạo trong cuộc sống của người Mỹ

DENVER (AP) - Cố gắng đầu tiên để quy định các chương trình trí tuệ nhân tạo chơi vai trò ẩn trong việc tuyển dụng, nhà ở và quyết định y tế cho hàng triệu người Mỹ đang phải đối mặt với áp lực từ tất cả các phía và đắng lòng tại các nhà nước trên khắp đất nước.

Chỉ có một trong bảy dự luật nhằm ngăn AI huyền thoại phân biệt khi đưa ra quyết định quan trọng - bao gồm ai được tuyển dụng, tiền mua nhà hoặc chăm sóc y tế - đã được thông qua. Thống đốc Colorado Jared Polis ngần ngại đã ký vào dự luật vào thứ Sáu.

Dự luật của Colorado và những dự luật gặp vấn đề tại Washington, Connecticut và nơi khác đối mặt với những trận đấu ở nhiều mặt, bao gồm giữa các nhóm dân quyền và ngành công nghiệp công nghệ, các nhà lập pháp ngần ngại tham gia vào một công nghệ mà hiện chưa rõ bao nhiêu người hiểu và thống đốc lo sợ trở thành nước lạc lõng và làm sợ hãi các start-up AI.

Polis ký vào dự luật của Colorado “với nghi ngờ”, trong một tuyên bố ông nói rằng ông ngần ngại về quy định làm giảm sự đổi mới của AI. Dự luật này có một khoảng thời gian chạy là hai năm và có thể được điều chỉnh trước khi trở thành luật.

“Tôi khuyến khích (những người lập pháp) cải thiện đáng kể trước khi dự luật này có hiệu lực,” Polis viết.

Đề xuất của Colorado, cùng với sáu dự luật chị em, là phức tạp, nhưng sẽ đòi hỏi các công ty đánh giá nguy cơ phân biệt từ AI của họ và thông báo cho khách hàng khi AI đã được sử dụng để giúp đưa ra quyết định quan trọng cho họ.

Những dự luật này riêng biệt so với hơn 400 dự luật liên quan đến AI đã được tranh luận trong năm nay. Đa số dự luật nhắm vào các phần của AI, chẳng hạn như việc sử dụng deepfakes trong cuộc bầu cử hoặc làm phim khiêu dâm.

Bảy dự luật này tham vọng hơn, áp dụng trên các ngành công nghiệp lớn và nhắm vào việc phân biệt, một trong những vấn đề phức tạp và thú vị nhất của công nghệ.

“Chúng ta thực sự không có cái nhìn vào các thuật toán được sử dụng, liệu chúng có hoạt động hay không, hoặc liệu chúng ta bị phân biệt đối xử hay không,” Rumman Chowdhury, đại sứ trí tuệ nhân tạo cho Bộ Ngoại giao Hoa Kỳ, người trước đây đã dẫn đầu đội đạo đức về trí tuệ nhân tạo của Twitter nói.

Trong khi các luật pháp chống phân biệt đã có trong sách đều, những người nghiên cứu về phân biệt AI nói rằng đây là một con quái vật khác, mà Hoa Kỳ đã kém hơn trong việc quản lý.

“Các máy tính đang đưa ra quyết định có bản dạng,” Christine Webber, một luật sư quyền dân sự từng làm việc trên các vụ kiện tập thể về phân biệt bao gồm Boeing và Tyson Foods nói. Bây giờ, Webber đang gần như hoàn tất việc phê duyệt cuối cùng trên một trong những thỏa thuận cho vụ kiện tập thể đầu tiên trong cả nước về phân biệt AI.

“Không, tôi phải nói rằng các hệ thống cũ không hoàn toàn không chứa đựng độ thiên lệch,” Webber nói. Nhưng “bất kỳ một người có thể chỉ xem một số lượng hồ sơ nhất định vào một ngày. Vì thế, bạn chỉ có thể đưa ra một số quyết định có thiên lệch trong một ngày và máy tính có thể thực hiện nhanh chóng trên một số lượng lớn người.”

Khi bạn nộp đơn xin việc, một căn hộ hoặc một khoản vay mua nhà, có khả năng cao AI đang đánh giá đơn xin của bạn: gửi nó lên, gán cho nó một điểm số hoặc lọc ra. Được ước lượng khoảng 83% các nhà tuyển dụng sử dụng thuật toán để giúp trong việc tuyển dụng, theo Cơ quan Cơ hội Việc làm Bình đẳng.

AI không biết phải xem xét gì trong một đơn xin việc, nên nó được dạy dựa trên các hồ sơ trước đây. Dữ liệu lịch sử được sử dụng để đào tạo các thuật toán có thể thể láu ngụy.

Amazon, ví dụ, đã làm việc trên một thuật toán tuyển dụng được đào tạo dựa trên hồ sơ cũ: chủ yếu ứng viên nam. Khi đánh giá ứng viên mới, nó đã giảm điểm các hồ sơ có từ “phụ nữ” hoặc liệt kê trường nữ vì họ không được đại diện trong dữ liệu lịch sử - hồ sơ - mà nó đã học từ đó. Dự án đã bị hủy bỏ.

Vụ kiện tập thể của Webber cáo buộc rằng một hệ thống AI gán điểm đơn xin thuê nhà giao cho người Mỹ da đen hoặc người Hispanic điểm thấp hơn. Một nghiên cứu cho thấy rằng một hệ thống AI được xây dựng để đánh giá nhu cầu y tế đã bỏ qua bệnh nhân da đen cho chăm sóc đặc biệt.

Các nghiên cứu và vụ kiện tập thể đã cho một cái nhìn sâu bên trong các hệ thống AI, nhưng phần lớn thuật toán vẫn được che giấu. Người Mỹ lớn lên không biết rằng những công cụ này đang được sử dụng, thăm dò từ Pew Research cho thấy. Các công ty thông thường không bắt buộc phải tiết lộ rõ ràng rằng một AI đã được sử dụng.

“Chỉ cần kéo lại tấm màn để chúng ta có thể thấy ai thực sự đang đánh giá và công cụ nào đang được sử dụng là một bước lớn, lớn,” Webber nói. “Các luật pháp hiện hành không hiệu quả nếu chúng ta không thể được ít nhất thông tin cơ bản.”

Đó là điều mà dự luật của Colorado, cùng với dự luật còn sống sót khác tại California, đang cố gắng thay đổi. Các dự luật, bao gồm một đề xuất mẫu ở Connecticut đã bị giết chết dưới sự phản đối từ thống đốc, đều giống nhau.

Dự luật của Colorado sẽ yêu cầu các công ty sử dụng AI để giúp đưa ra quyết định quan trọng cho người Mỹ đánh giá AI của họ hàng năm về tiềm năng thiên lệch; thực hiện chương trình giám sát trong công ty; thông báo cho thống đốc tiểu bang nếu phát hiện phân biệt; và thông báo cho khách hàng khi một AI đã được sử dụng để giúp đưa ra quyết định cho họ, bao gồm một lựa chọn để kháng cáo.

Các hiệp hội lao động và học giả lo sợ rằng sự phụ thuộc vào các công ty tự kiểm soát có nghĩa là sẽ khó để dự phòng phân biệt trong hệ thống AI trước khi gây ra thiệt hại. Các công ty sợ rằng yêu cầu minh bạch bắt buộc có thể rò rỉ bí mật thương mại, bao gồm trong các vụ kiện, trong lĩnh vực mới cạnh tranh này.

Các công ty AI cũng đẩy mạnh và nói chung đạt được quy định chỉ cho phép tổng công tố viên, không phải công dân, đệ đơn kiện theo luật mới. Chi tiết về thực thi đã được để lại cho tổng công tố viên.

Trong khi các công ty AI lớn hầu hết đã chấp nhận các đề xuất này, một nhóm các công ty AI nhỏ tại Colorado cho biết các yêu cầu có thể xử lý được bởi các công ty AI khổng lồ, nhưng không phải bởi các start-up mới nổi.

“Chúng ta đang ở trong một thời đại mới của sự hỗn loạn tiền sử,” Logan Cerkovnik, người sáng lập Thumper.ai, nhắc đến lĩnh vực AI. “Có quá nhiều đạo luật quá hạn chế đẩy chúng ta vào các định nghĩa và hạn chế việc sử dụng công nghệ trong khi điều này đang hình thành sẽ chỉ gây hại cho sự đổi mới.”

Tất cả đều đồng ý, cùng với nhiều công ty AI, rằng điều được gọi chính thức là “phân biệt theo thuật toán” quan trọng để giải quyết. Nhưng họ nói rằng dự luật viết theo cách không đạt được mục tiêu đó. Thay vào đó, họ đề xuất củng cố các luật pháp chống phân biệt hiện hữu.

Chowdhury lo ngại rằng các vụ kiện tố tụng quá đắt đỏ và tốn thời gian để trở thành công cụ thi hành hiệu quả, và luật pháp nên đi xa hơn những gì Colorado đề xuất. Thay vào đó, Chowdhury và các học giả đã đề xuất tổ chức độc lập được chứng nhận có thể kiểm tra một cách rõ ràng nguy cơ thiên lệch trong một thuật toán AI.

“Bạn có thể hiểu và đối phó với một người duy nhất có phân biệt đối xử hoặc thiên lệch,” Chowdhury nói. “Chúng ta phải làm gì khi nó được nhúng vào toàn bộ tổ chức?”

Bedayn là một thành viên của corpo cho Chương trình Tin tức Nhà Nước của Cơ quan Tin tức Th Associated Press/Report for America. Report for America là một chương trình dịch vụ quốc gia phi lợi nhuận đặt các nhà báo vào các phòng tin tức địa phương để báo cáo về các vấn đề chưa được xem xét kỹ lưỡng.

Related Articles

Back to top button Back to top button