“Tổng giám đốc Signal: Tăng cường sức mạnh người dùng, nhân viên để đối phó với những mối đe dọa của trí tuệ nhân tạo”

Chủ tịch Signal Foundation, Meredith Whittaker, đã kêu gọi các quy định AI ‘có ý nghĩa’ tại hội nghị quyền kỹ thuật số RightsCon ở Costa Rica. Whittaker nói rằng luật về quyền riêng tư và tổ chức lao động là cơ hội tốt nhất để hạn chế sức mạnh ngày càng tăng của công nghệ và giải quyết mối đe dọa chính của trí tuệ nhân tạo. Các nhóm dễ bị tổn thương đã bị AI gây hại và AI sẽ chiếm vị trí trung tâm tại một hội nghị lớn về quyền kỹ thuật số. Whittaker hy vọng rằng ứng dụng nhắn tin được mã hóa Signal và các dự án khác không thu thập cũng như thu thập dữ liệu của người dùng có thể giúp hạn chế sự tập trung quyền lực giữa một số nhà phát triển AI mạnh mẽ.
* Chủ tịch Signal Foundation kêu gọi các quy định AI ‘có ý nghĩa’
* Các nhóm dễ bị tổn thương đã bị AI gây hại
* AI sẽ chiếm vị trí trung tâm tại một hội nghị lớn về quyền kỹ thuật số
Bởi Avi Asher-Schapiro SAN JOSE, ngày 5 tháng 6 (Quỹ Thomson Reuters) – Luật về quyền riêng tư và tổ chức lao động mang đến cơ hội tốt nhất để hạn chế sức mạnh ngày càng tăng của công nghệ lớn và giải quyết mối đe dọa chính của trí tuệ nhân tạo, một nhà nghiên cứu và điều hành AI hàng đầu cho biết.
Meredith Whittaker, chủ tịch của Signal Foundation, trước RightsCon, một hội nghị lớn về quyền kỹ thuật số ở Costa Rica trong tuần này, cho biết những nỗ lực hiện tại nhằm kiểm soát nguy cơ AI bị ảnh hưởng quá mức bởi chính ngành công nghệ. Ông nói với Thomson Reuters Foundation: “Nếu chúng ta có bất kỳ cơ hội nào để đưa ra quy định có ý nghĩa, thì đó sẽ đến từ việc xây dựng quyền lực và đưa ra yêu cầu của những người có nguy cơ bị tổn hại nhất”. “Đối với tôi, đây là tiền tuyến.”
Hơn 350 giám đốc điều hành AI hàng đầu bao gồm Giám đốc điều hành OpenAI Sam Altman tuần trước đã tham gia cùng các chuyên gia và giáo sư để nâng cao “nguy cơ tuyệt chủng của AI”, họ thúc giục các nhà hoạch định chính sách đánh đồng những rủi ro do đại dịch và chiến tranh hạt nhân gây ra. Nhưng đối với Whittaker, những dự đoán về ngày tận thế này làm lu mờ tác hại hiện tại mà một số hệ thống AI đã gây ra.
Ông nói: “Rất nhiều nhà nghiên cứu đã ghi lại rủi ro này một cách cẩn thận và đã thu thập biên lai,” đồng thời chỉ ra công trình của các nhà nghiên cứu AI như Timnit Gebru và Joy Buolamwini, những người đầu tiên ghi nhận thành kiến chủng tộc trong các hệ thống nhận dạng khuôn mặt do AI cung cấp cách đây 5 năm. .rồi. Một báo cáo gần đây về tác hại của AI từ Trung tâm Thông tin Quyền riêng tư Điện tử (EPIC), liệt kê việc lạm dụng sức lao động của các nhà chú thích AI ở Kenya, những người giúp xây dựng các mô hình dự đoán, chi phí môi trường của sức mạnh tính toán để xây dựng các hệ thống AI và sự phổ biến của AI- tuyên truyền tạo ra. , trong số những mối quan tâm khác.
TĂNG SỨC MẠNH Khi Whittaker rời công việc nhà nghiên cứu AI tại Google vào năm 2019, ông đã viết một ghi chú nội bộ cảnh báo về quỹ đạo của công nghệ AI.
Whittaker, người đã xung đột với Google về hợp đồng AI của công ty với quân đội Hoa Kỳ, cũng như việc công ty xử lý các khiếu nại quấy rối tình dục, cho biết: “Việc sử dụng AI để kiểm soát và áp bức xã hội đã xuất hiện. “Chúng tôi có một khoảng thời gian ngắn để hành động, xây dựng hàng rào thực sự cho các hệ thống này, trước khi AI được tích hợp vào cơ sở hạ tầng của chúng tôi và khi đó đã quá muộn.”
Google đã không trả lời yêu cầu bình luận. Whittaker coi sự bùng nổ AI hiện nay là một phần của hoạt động kinh doanh “công cụ phái sinh giám sát”, đã kiếm tiền từ các bộ sưu tập lớn thông tin do người dùng tạo trên internet để tạo ra các mô hình dự đoán mạnh mẽ cho một nhóm nhỏ các công ty.
Theo một cuộc điều tra của Washington Post, các công cụ AI tổng quát phổ biến như ChatGPT được đào tạo dựa trên vô số dữ liệu internet – bao gồm văn bản từ các mục Wikipedia đến cơ sở dữ liệu bằng sáng chế và diễn đàn người chơi World of Warcraft. Các công ty truyền thông xã hội và các công ty công nghệ khác cũng đang xây dựng AI và các hệ thống dự đoán bằng cách phân tích hành vi người dùng của chủ sở hữu.
Whittaker hy vọng rằng ứng dụng nhắn tin được mã hóa Signal và các dự án khác không thu thập cũng như thu thập dữ liệu của người dùng có thể giúp hạn chế sự tập trung quyền lực giữa một số nhà phát triển AI mạnh mẽ. Đối với Whittaker, sự gia tăng của các công cụ AI mạnh mẽ cho thấy sự tập trung quyền lực ngày càng tăng trong một nhóm nhỏ các công ty công nghệ có khả năng đầu tư lớn vào việc thu thập dữ liệu và sức mạnh tính toán mà các hệ thống như vậy yêu cầu.
Whittaker, người sẽ nói về các ứng dụng ưu tiên quyền riêng tư và mã hóa tại RightsCon, được tổ chức bởi nhóm quyền kỹ thuật số Access Now, cho biết: “Chúng tôi có một số ít công ty có … quyền lực được cho là lớn hơn nhiều quốc gia”. “Chúng ta đang trao ngày càng nhiều quyền quyết định, ngày càng nhiều quyền đối với tương lai của chúng ta – ai sẽ được lợi và ai sẽ thua – cho một nhóm nhỏ các công ty.”
ĐẨY LẠI Whittaker hy vọng sẽ có sự giám sát chặt chẽ hơn về mặt pháp lý đối với AI – nhưng cũng cảnh giác với việc các cơ quan quản lý bị ảnh hưởng quá nhiều bởi chính ngành công nghiệp này.
Tại Hoa Kỳ, một nhóm các cơ quan liên bang đã công bố vào tháng 4 rằng họ sẽ giám sát không gian AI mới nổi về các trường hợp sai lệch trong các hệ thống tự động, cũng như các tuyên bố gây hiểu lầm về khả năng của các hệ thống AI. EU vào tháng 5 đã đồng ý với một dự thảo luật cứng rắn hơn, còn được gọi là Đạo luật AI, sẽ phân loại một số loại AI nhất định là “rủi ro cao” và yêu cầu các công ty chia sẻ dữ liệu và đánh giá rủi ro với các cơ quan quản lý.
Whittaker, người từng là cố vấn cấp cao về AI của Ủy ban Thương mại Liên bang Hoa Kỳ trước khi gia nhập Signal vào năm 2022, cho biết: “Tôi nghĩ mọi người đang tranh giành nhau. bằng cách đó làm mất đi các nguyên liệu thô mà các mô hình AI cần để xây dựng các hệ thống mạnh mẽ hơn.
Whittaker cũng đề cập đến công việc của các nhà tổ chức lao động, chẳng hạn như các cuộc gọi gần đây từ Hiệp hội Nhà văn Hoa Kỳ (WGA) và Hiệp hội Diễn viên Màn ảnh (SAG) nhằm hạn chế việc sử dụng các công nghệ AI tạo ra như ChatGPT tại nơi làm việc của họ.