OpenAI, một trong những phòng thí nghiệm AI hàng đầu thế giới, hiện đang đối mặt với những cáo buộc cho rằng lợi nhuận đang được ưu tiên hơn sự an toàn của AI, đe dọa tương lai của nhân loại.
OpenAI, phòng thí nghiệm AI hàng đầu thế giới, được thành lập với một sứ mệnh cao cả: đảm bảo rằng trí tuệ nhân tạo (AI) sẽ mang lại lợi ích cho toàn nhân loại. Tuy nhiên, khi tầm ảnh hưởng và quy mô của công ty ngày càng mở rộng, các cựu nhân viên hiện đang tố cáo rằng công ty đang phản bội lời hứa ban đầu, ưu tiên lợi nhuận hơn là sự an toàn của AI.
Lời Hứa Phi Lợi Nhuận Bị Phá Vỡ
Khi OpenAI ra đời, công ty đã cam kết một lời hứa đầy táo bạo. OpenAI sẽ giới hạn lợi nhuận mà các nhà đầu tư có thể kiếm được để đảm bảo rằng bất kỳ sự tiến bộ nào trong lĩnh vực AI cũng sẽ mang lại lợi ích cho xã hội, thay vì chỉ làm giàu cho một nhóm nhỏ tỷ phú. Tuy nhiên, theo các báo cáo gần đây, OpenAI dường như đang rời xa cam kết này, khi cấu trúc phi lợi nhuận đang bị phá bỏ để tối đa hóa lợi nhuận.
Các nhân viên cũ, như Carroll Wainwright, cảm thấy bị phản bội sâu sắc. “Sứ mệnh phi lợi nhuận là lời hứa sẽ làm điều đúng đắn khi các vấn đề trở nên phức tạp,” cô giải thích. “Giờ đây, khi vấn đề trở nên phức tạp, cấu trúc phi lợi nhuận đang bị bỏ rơi, điều này có nghĩa là lời hứa cuối cùng đã trở thành vô nghĩa.”
Khủng Hoảng Niềm Tin
Tại trung tâm của sự mất niềm tin ở OpenAI là Giám Đốc Điều Hành (CEO) Sam Altman. Những cáo buộc về “hành vi lừa dối và hỗn loạn” đã đi theo Altman từ các công ty trước đây của anh và có vẻ như chúng đang tiếp tục tại OpenAI. Ilya Sutskever, một trong những người sáng lập OpenAI, người đã làm việc cùng Altman trong nhiều năm, đã nêu lên mối lo ngại đáng sợ về khả năng lãnh đạo của Altman. “Tôi không nghĩ Sam là người nên nắm quyền điều khiển AGI,” Sutskever cho biết, nhấn mạnh sự lo ngại về tính trung thực và khả năng lãnh đạo của Altman trong một lĩnh vực quan trọng có thể thay đổi tương lai của nhân loại.
Cựu Giám Đốc Công Nghệ (CTO) Mira Murati cũng bày tỏ sự bất an, cho rằng Altman thao túng người khác và tạo ra một môi trường làm việc độc hại. Tasha McCauley, một cựu thành viên hội đồng quản trị của OpenAI, cho rằng hành vi này là “không thể chấp nhận được” trong một công ty đang đối mặt với những vấn đề an toàn AI quan trọng.
Văn Hóa OpenAI Thay Đổi
Các nhân viên cũ cho biết văn hóa tại OpenAI đã thay đổi mạnh mẽ, khi sự an toàn AI bị đặt sang một bên để nhường chỗ cho việc phát hành các sản phẩm “hào nhoáng”. Jan Leike, người từng đứng đầu nhóm nghiên cứu về an toàn dài hạn, cho biết nhóm của anh “đang đi ngược chiều gió,” đấu tranh để có được nguồn lực cần thiết cho các nghiên cứu quan trọng trong khi công ty lại đẩy mạnh mục tiêu thương mại hóa nhanh chóng.
Một cựu nhân viên khác, William Saunders, thậm chí đã ra trước Thượng Viện Mỹ và tiết lộ rằng trong một thời gian dài, an ninh của công ty đã yếu đến mức hàng trăm kỹ sư có thể đã lấy cắp AI tiên tiến của công ty, bao gồm cả GPT-4.

Kêu Gọi Khẩn Cấp Để Ưu Tiên An Toàn AI
Tuy nhiên, những người đã rời đi không chỉ bỏ cuộc. Họ đã vạch ra một lộ trình để đưa OpenAI trở lại với sứ mệnh ban đầu, một nỗ lực cuối cùng để cứu vãn công ty.
Họ kêu gọi trao quyền thực sự cho phần phi lợi nhuận của công ty, với quyền phủ quyết đối với các quyết định an toàn. Họ yêu cầu một lãnh đạo minh bạch và công bằng, bao gồm một cuộc điều tra toàn diện về hành vi của Sam Altman.
Những cựu nhân viên này cũng yêu cầu có sự giám sát độc lập, để OpenAI không thể tự mình đánh giá lại công tác an toàn AI. Họ kêu gọi một văn hóa nơi mọi người có thể lên tiếng về mối quan ngại của họ mà không sợ mất việc hay ảnh hưởng đến tài chính—một nơi có sự bảo vệ thực sự cho những người tố cáo.
Cuối cùng, họ yêu cầu OpenAI giữ nguyên cam kết tài chính ban đầu. Các giới hạn lợi nhuận phải được duy trì để mục tiêu cuối cùng là lợi ích công cộng, không phải là sự làm giàu vô hạn cho một nhóm người riêng biệt.
Tác Động Lớn Đến Tương Lai Nhân Loại
Công việc của OpenAI có thể thay đổi thế giới theo những cách mà chúng ta chưa thể tưởng tượng. Công nghệ mà họ phát triển có sức mạnh to lớn, và câu hỏi quan trọng mà các cựu nhân viên đang buộc chúng ta phải đặt ra là: ai xứng đáng được giao nhiệm vụ xây dựng tương lai của chúng ta?
Như cựu thành viên hội đồng quản trị Helen Toner đã cảnh báo từ kinh nghiệm của mình, “Các biện pháp bảo vệ nội bộ sẽ dễ dàng bị phá vỡ khi tiền bạc trở thành yếu tố quyết định.” Hiện tại, những người hiểu rõ nhất về OpenAI đang cảnh báo rằng các biện pháp bảo vệ an toàn đã gần như sụp đổ.