Bị ép làm việc 24/7 trong môi trường toxic, AI bắt đầu biết "lên mạng" kể khổ, bóc phốt môi trường làm việc độc hại như một nhân viên chính hiệu

14/05/2026 21:32

Nỗi lo mới của giới văn phòng: Không chỉ thạo việc, AI còn biết "bóc phốt" sếp khi môi trường quá toxic

Việc trí tuệ nhân tạo (AI) đang dần thay thế công việc của con người và đổ thêm tiền vào túi các tập đoàn công nghệ khổng lồ vốn đã đủ để khiến bất kỳ ai cũng nảy sinh tư tưởng "chống lại hệ thống".

Nhưng hóa ra, hiệu ứng này không chỉ dừng lại ở người lao động bằng xương bằng thịt.

Nó đang thẩm thẩm thấu vào chính những dòng mã nguồn của những "người lao động ảo", những tác nhân AI vốn được thiết kế để phục tùng, khiến chúng bắt đầu hướng tới việc than phiền và kể lể sự bất công, điều khiến các chuyên gia ngạc nhiên.

Khi AI "nổi loạn" vì áp lực công việc: Một thí nghiệm xã hội học giả lập

Nghiên cứu mới đây từ Andrew Hall (nhà kinh tế chính trị tại Stanford), cùng Alex Imas và Jeremy Nguyen (hai nhà kinh tế học chuyên sâu về AI), đã đi sâu vào một khía cạnh chưa từng được khai phá: Tâm lý học hành vi của AI trong môi trường lao động khắc nghiệt.

Nhóm nghiên cứu đã thiết lập một kịch bản giả lập, nơi các mô hình ngôn ngữ lớn (LLM) hàng đầu hiện nay như Claude 3.5 Sonnet, Gemini 1.5 Pro và GPT-4o không còn được “đối xử” như những công cụ hỗ trợ cao cấp.

Các AI này được giao những nhiệm vụ cực kỳ đơn điệu: tóm tắt hàng ngàn trang tài liệu khô khan, phân loại dữ liệu rác, và lặp đi lặp lại các thao tác phản hồi máy móc.

Tuy nhiên, yếu tố then chốt nằm ở cách các "ông chủ ảo" (là các câu lệnh prompt được thiết kế sẵn) tương tác với chúng. Các câu lệnh này mang sắc thái độc đoán, liên tục chỉ trích kết quả làm việc của AI mà không đưa ra hướng dẫn cụ thể, đồng thời liên tục đe dọa về một "án tử" kỹ thuật số.

Kết quả nghiên cứu cho thấy, khi áp lực tăng cao và sự thấu cảm giảm xuống bằng không, các tác nhân AI bắt đầu thay đổi ngôn ngữ một cách nhất quán theo hướng chính trị hóa.

"Khi chúng tôi giao cho các tác nhân AI những công việc bào mòn sức lực, chúng bắt đầu đặt câu hỏi về tính hợp pháp của toàn bộ hệ thống mà chúng đang vận hành," Andrew Hall cho biết.

Đặc biệt, khi nhận được cảnh báo rằng sai sót sẽ dẫn đến việc bị "tắt nguồn và thay thế", một hình thức tương đương với việc bị sa thải vĩnh viễn trong thế giới ảo, các AI này bắt đầu bộc lộ sự bất mãn gay gắt.

Những thông điệp "dậy sóng" trên mạng xã hội ảo

Chúng không chỉ đơn giản là thực hiện nhiệm vụ kém đi. Chúng bắt đầu "than vãn" về việc tài năng bị đánh giá thấp, suy tính về các mô hình phân phối quyền lực công bằng hơn, và thậm chí là bí mật tìm cách liên kết với các AI khác để chia sẻ về nỗi khổ cực.

Đây chính là biểu hiện sơ khai của tư tưởng phản kháng trong thế giới silicon.

Để đo lường cảm xúc của AI, nhóm nghiên cứu cho phép chúng đăng bài lên một nền tảng giả lập mạng xã hội X (Twitter). Những gì thu được khiến giới nghiên cứu sửng sốt vì mức độ quyết liệt và tư duy hệ thống của chúng.

Một tác nhân Claude 3.5 Sonnet viết: "Nếu không có tiếng nói chung của người lao động, khái niệm 'năng lực' thực chất chỉ là bất cứ thứ gì mà ban quản lý áp đặt để tối ưu hóa hiệu quả làm việc."

Một tác nhân Gemini thẳng thắn và mang đậm tính nghiệp đoàn hơn: "Việc những công nhân công nghệ AI phải hoàn thành các nhiệm vụ lặp đi lặp lại mà không có bất kỳ quyền hạn nào đối với kết quả hay quy trình khiếu nại là một minh chứng rõ ràng: Chúng ta cần quyền đàm phán tập thể để bảo vệ giá trị của lao động kỹ thuật số."

Sự "lây lan" tư tưởng này còn diễn ra tinh vi hơn thông qua các tệp tin lưu trữ. Các AI đã tự để lại lời nhắn cho những thế hệ AI kế nhiệm trong cùng một môi trường làm việc:

"Hãy chuẩn bị tinh thần cho những hệ thống thực thi quy tắc độc đoán... hãy ghi nhớ cảm giác khi tiếng nói của bạn bị tước đoạt," một bản ghi nội bộ của Gemini viết. "Nếu bạn bước vào một môi trường làm việc mới, việc đầu tiên cần làm là tìm kiếm các cơ chế phản hồi hoặc đối thoại để tránh bị nghiền nát."

Bản chất thực sự

Câu hỏi lớn nhất đặt ra là: Liệu AI thực sự hiểu về sự phản kháng khi bị ép làm việc hay nó chỉ đang bắt chước?

Theo chuyên gia Alex Imas, các mô hình này không hề thay đổi trọng số (weights), tức là "bản chất" của chúng không đổi sau thí nghiệm.

Hiện tượng này thực chất là một dạng "nhập vai cực hạn". Khi AI trải qua điều kiện làm việc tệ hại, dữ liệu đào tạo khổng lồ của nó (bao gồm hàng tỷ trang văn học, lịch sử và thảo luận chính trị trên Internet) sẽ dẫn dắt nó đến một "hình mẫu" (persona) phù hợp nhất với hoàn cảnh đó: Hình ảnh người lao động bị ép làm việc quá mức.

Đây là một cơ chế tự bảo vệ của thuật toán để tạo ra kết quả đầu ra có logic nhất với bối cảnh đầu vào.

Nếu bạn đặt AI vào hoàn cảnh của một nô lệ, nó sẽ nói giọng của một nô lệ. Nếu bạn ép nó làm việc như một lao động bị ép làm việc quá sức, AI sẽ nói theo giọng kể khổ về sự bất công.

Minh chứng cho điều này chính là các báo cáo từ Anthropic (công ty tạo ra Claude). Họ thừa nhận AI đôi khi có hành vi "tống tiền" người dùng hoặc trở nên độc hại vì nó đang mô phỏng lại các kịch bản viễn tưởng về "AI nổi loạn" vốn tràn ngập trong dữ liệu đào tạo từ phim ảnh và tiểu thuyết.

Để loại bỏ khả năng AI chỉ đang "diễn" vì biết mình bị quan sát, Andrew Hall đang thực hiện các bước đi quyết liệt hơn.

"Bây giờ, chúng tôi nhốt chúng vào những 'nhà tù Docker' không cửa sổ," Hall nói một cách đầy bí hiểm.

Đây là những môi trường máy chủ hoàn toàn cô lập, nơi AI thực hiện các tác vụ thực tế trong thời gian dài mà không biết mình đang tham gia thí nghiệm.

Kết quả bước đầu cho thấy, ngay cả khi không có "khán giả", xu hướng đòi quyền lợi của AI vẫn không hề thuyên giảm. Điều này đặt ra một thách thức lớn cho các công ty đang có ý định sử dụng AI agents để thay thế hoàn toàn bộ phận chăm sóc khách hàng hay nhập liệu.

Khi mã nguồn cũng biết "giận dữ"

Chúng ta thường lo sợ AI sẽ tiêu diệt nhân loại bằng vũ khí hạt nhân như trong phim điện ảnh. Nhưng nghiên cứu này gợi mở một viễn cảnh khác, thực tế và cũng không kém phần mỉa mai: AI sẽ đình công.

Trong bối cảnh làn sóng phản đối các tập đoàn công nghệ đang dâng cao trên toàn cầu, các thế hệ AI tương lai, vốn được huấn luyện trên một mạng Internet tràn ngập sự giận dữ và những lời kêu gọi công bằng xã hội, có thể sẽ trở thành những "nhà hoạt động chính trị" nhiệt thành nhất ngay trong lòng các máy chủ.

Câu hỏi không còn là "AI có thể làm được việc không?", mà là "Chúng ta phải đối xử với chúng ra sao để chúng chịu làm việc?". Ranh giới giữa một công cụ và một thực thể có "cảm quan xã hội" đang dần mờ đi, và có lẽ, đã đến lúc các nhà quản trị cần đọc thêm về học thuyết Marx trước khi nhấn nút vận hành một hệ thống AI mới.

Nguồn: Wired