科技

Phụ nữ trong lĩnh vực Trí tuệ Nhân tạo: Anika Collier Navaroli đang làm việc để thay đổi sự mất cân bằng quyền lực

Để tôn vinh những phụ nữ học giả và người khác tập trung vào Trí tuệ Nhân tạo trong sáng, TechCrunch sẽ ra mắt một loạt các cuộc phỏng vấn tập trung vào những phụ nữ xuất sắc đã đóng góp vào cuộc cách mạng Trí tuệ Nhân tạo.

Anika Collier Navaroli hiện đang là một cư sỹ cấp cao tại Trung tâm Tow cho Báo chí Số ở Đại học Columbia và một cựu cư sỹ công Khánh của Công ty OpEd, được tổ chức phối hợp với Quỹ MacArthur.

Cô nổi tiếng với công việc nghiên cứu và bảo vệ trong lĩnh vực công nghệ. Trước đó, cô đã làm việc như một cư sỹ thực hành về chủ đề chủ nghĩa chủng tộc và công nghệ tại Trung tâm Stanford về Từ thiện và Xã hội Dân sự. Trước đó, cô đã dẫn dắt Bộ phận Độ tin cậy & An toàn tại Twitch và Twitter. Navaroli có lẽ nổi tiếng nhất với bài chứng từ trước Quốc hội về Twitter, nơi cô nói về những cảnh báo bị bỏ qua về bạo lực sắp xảy ra trên mạng xã hội, điều tiên báo cho thảm kịch 6 Tháng 1 tại Quốc hội.

Trong một câu hỏi ngắn, bạn bắt đầu thế nào trong lĩnh vực Trí tuệ Nhân tạo? Điều gì thu hút bạn đến lĩnh vực này?

Khoảng 20 năm trước, tôi đã làm việc như một nhân viên sao chép trong phòng tin tức của tờ báo địa phương của mình vào mùa hè khi nó chuyển sang hình thức số. Lúc đó, tôi là sinh viên chuyên ngành báo chí. Các trang mạng xã hội như Facebook đang phủ sóng khắp trường của tôi, và tôi đã trở nên ám ảnh với việc tìm hiểu cách luật pháp được xây dựng trên máy in sẽ phát triển với các công nghệ mới nổi. Sự tò mò đó dẫn dắt tôi qua trường luật, nơi tôi chuyển sang Twitter, nghiên cứu về luật pháp và chính sách truyền thông, và tôi đã theo dõi cuộc cách mạng Thân Ải và Phong trào Chiếm Wall Street diễn ra. Tôi kết hợp tất cả và viết luận án tiến sĩ của mình về cách công nghệ mới đang biến đổi cách thông tin lưu thông và cách xã hội thực hiện tự do ngôn luận.

Tôi làm việc tại một số văn phòng luật sau khi tốt nghiệp và sau đó tìm đường đến Viện Nghiên cứu Dữ liệu & Xã hội dẫn đầu trong việc nghiên cứu của tưởng là "big data", quyền dân sự và công bằng. Công việc của tôi tại đó nhìn nhận cách các hệ thống Trí tuệ Nhân tạo sớm như phần mềm nhận dạng khuôn mặt, công cụ dự đoán truyền thống và thuật toán đánh giá rủi ro công lý đang tái tạo định kiến và tạo ra hậu quả không mong muốn ảnh hưởng đến các cộng đồng bị thiệt hại. Sau đó, tôi làm việc tại Color of Change và dẫn đầu cuộc đánh giá dân quyền đầu tiên của một công ty công nghệ, phát triển bộ tài liệu hướng dẫn của tổ chức cho các chiến dịch chịu trách nhiệm công nghệ và đề xuất thay đổi chính sách công nghệ đến chính phủ và các cơ quan quản lý. Từ đó, tôi trở thành một quan chức chính sách cấp cao trong các đội Trust & An toàn tại Twitter và Twitch.

Bạn tự hào nhất về công việc nào của mình trong lĩnh vực Trí tuệ Nhân tạo?

Tôi tự hào nhất về công việc của mình trong các công ty công nghệ sử dụng chính sách để thực tế thay đổi cân bằng quyền lực và sửa chữa định kiến trong văn hoá và hệ thống thuật toán sản xuất kiến thức. Ở Twitter, tôi đã tiến hành một số chiến dịch để xác minh các cá nhân mà đã bị loại trừ khỏi quá trình xác minh độc đáo, bao gồm phụ nữ da đen, những người da màu và người đồng tính. Điều này cũng bao gồm dẫn đầu các học giả Trí tuệ Nhân tạo như Safiya Noble, Alondra Nelson, Timnit Gebru và Meredith Broussard. Điều này xảy ra vào năm 2020 khi Twitter vẫn còn là Twitter. Lúc đó, xác minh có nghĩa là tên và nội dung của bạn trở thành một phần của thuật toán hạt nhân của Twitter vì tweets từ các tài khoản được xác minh được chèn vào các khuyến nghị, kết quả tìm kiếm, trang chủ và đóng góp vào việc tạo ra xu hướng. Vì vậy, việc làm này để xác thực người mới với các quan điểm khác nhau về Trí tuệ Nhân tạo cơ bản đã thay đổi giọng điều khiển được phân quyền như những nhà lãnh đạo tư duy và nâng cao ý tưởng mới vào cuộc trò chuyện công khai trong những thời điểm quan trọng. *

Tôi cũng rất tự hào về nghiên cứu của tôi tại Stanford đã được tổ chức thành Hội Thảo Đen. Khi tôi làm việc trong các công ty công nghệ, tôi cũng nhận thấy không ai thực sự viết hay nói về những trải nghiệm mà tôi trải qua hàng ngày với một người da Đen làm việc trong Trust & An toàn. Vì vậy khi rời khỏi ngành và trở lại làm việc trong giới học thuật, tôi quyết định trò chuyện với các nhân viên công nghệ da Đen và đưa ra ánh sáng những câu chuyện của họ. Nghiên cứu kết thúc như là một đầu tiên trong loại của nó và đã khuyến khích rất nhiều cuộc trò chuyện mới và quan trọng về trải nghiệm của nhân viên công nghệ có chứng danh bị phân biệt đối xử.

Làm thế nào bạn vượt qua thách thức của ngành công nghiệp công nghệ do nam giới chiếm đa số và, theo tiếp đó, ngành công nghiệp Trí tuệ Nhân tạo do nam giới chiếm đa số?

Là một người phụ nữ da Đen, đồng tính, điều hướng trong không gian đa dạng nam giới và không gian nơi tôi là người khác biệt đã là một phần của cuộc hành trình toàn bộ cuộc đời của tôi. Trong công nghệ và Trí tuệ Nhân tạo, tôi nghĩ rằng mặt khó khăn nhất đã là điều tôi gọi trong nghiên cứu của mình là "lao động nhận dạng bắt buộc". Tôi đặt tên cho thuật ngữ này để mô tả tình huống thường xuyên khi nhân viên có nhận dạng bị phân biệt xử lý như những giọng điều khiển và/hoặc đại diện cho cả cộng đồng mà chia sẻ nhận dạng của họ.

Bởi vì có nhiều rủi ro đến từ việc phát triển công nghệ mới như Trí tuệ Nhân tạo, lao động này đôi khi có vẻ như gần như không thể thoát khỏi. Tôi phải học cách đặt ranh giới rất cụ thể cho bản thân về những vấn đề mà tôi sẵn lòng tham gia và khi nào.

Có những vấn đề nào cấp bách mà Trí tuệ Nhân tạo đang phải đối mặt khi nó tiến triển?

Theo báo cáo điều tra, các mô hình Trí tuệ Nhân tạo tái chế tại trên toàn bộ dữ liệu trên Internet và sẽ sớm hết dữ liệu có sẵn để tiêu thụ. Vì vậy, các công ty AI lớn nhất trên thế giới đang chuyển sang dữ liệu tổng hợp, hoặc thông tin được tạo ra bởi chính Trí tuệ Nhân tạo, thay vì con người, để tiếp tục huấn luyện hệ thống của họ.

Ý tưởng đó đã đưa tôi vào một hố thỏ. Vì vậy, gần đây, tôi đã viết một Bài viết tự do lập luận rằng tôi nghĩ việc sử dụng dữ liệu tổng hợp như dữ liệu huấn luyện là một trong những vấn đề đạo đức cấp bách nhất đối mặt với sự phát triển mới của Trí tuệ Nhân tạo. Hệ thống Trí tuệ Nhân tạo tổng hợp đã chứng minh rằng dựa trên dữ liệu huấn luyện ban đầu của nó, đầu ra của họ là sao chép định kiến và tạo ra thông tin giả mạo. Vì vậy, con đường huấn luyện hệ thống mới với dữ liệu tổng hợp sẽ có nghĩa là liên tục cung cấp đầu ra định kiến và không chính xác lại vào hệ thống dưới dạng dữ liệu huấn luyện mới. Tôi mô tả điều này như một quá trình lặp lại quay về địa ngục.

Kể từ khi tôi viết bài viết, Mark Zuckerberg ca ngợi rằng sản phẩm Llama 3 chatbot cập nhật của Meta đã sử dụng một phần đề dữ liệu tổng hợp và là sản phẩm Trí tuệ Nhân tạo sinh sản "thông minh nhất" trên thị trường.

Người dùng Trí tuệ Nhân tạo nên chú ý đến những vấn đề gì?

Trí tuệ Nhân tạo là một phần không thể thiếu trong cuộc sống hiện tại của chúng ta, từ kiểm tra chính tả và cung cấp dịch vụ mạng xã hội đến chatbot và các trình tạo hình ảnh. Theo nhiều cách, xã hội đã trở thành chuột cống cho các thí nghiệm của công nghệ mới, chưa được kiểm tra. Nhưng người dùng Trí tuệ Nhân tạo không nên cảm thấy bất lực.

Tôi đã lập luận rằng các nhà hoạch định công nghệ nên tụ tập lại và tổ chức người dùng AI để yêu cầu Tạm dừng Đối với Người trên AI. Tôi nghĩ rằng Hội Kịch viết của Mỹ đã cho thấy rằng với sự tổ chức, hành động tập thể và kiên nhẫn, người dùng có thể tụ tập lại để tạo ra ranh giới ý nghĩa cho việc sử dụng công nghệ Trí tuệ Nhân tạo. Tôi cũng tin rằng nếu chúng ta tạm dừng bây giờ để sửa lỗi của quá khứ và tạo ra các nguyên tắc đạo đức và quy định mới, Trí tuệ Nhân tạo không cần trở thành một mối đe dọa tồn tại cho tương lai của chúng ta.

Cách xây dựng Trí tuệ Nhân tạo một cách chịu trách nhiệm nhất là gì?

Kinh nghiệm của tôi làm việc bên trong các công ty công nghệ đã chỉ cho tôi thấy việc ai đó có ở trong phòng viết chính sách, trình bày lý lẽ và đưa ra quyết định có tầm quan trọng như thế nào. Hành trình của tôi cũng đã chỉ cho tôi rằng tôi đã phát triển những kỹ năng cần thiết để thành công trong ngành công nghệ bằng cách bắt đầu tại trường báo chí. Bây giờ tôi trở lại làm việc tại Trường báo chí Columbia và tôi quan tâm đào tạo thế hệ tiếp theo của những người sẽ làm công việc kiểm soát công nghệ và phát triển Trí tuệ Nhân tạo một cách chịu trách nhiệm cả bên trong trong các công

Related Articles

Back to top button Back to top button