Your Cart
Loading

AI, jobs, and productivity: evidence for safer deployment

Public debate around AI often swings between anxiety about job loss and optimism about a productivity boom. Together, they outline the scale of job exposure at the macro level, real-world productivity gains where AI is already embedded, and the limits of current models on complex reasoning. The goal is practical translation: pick use cases “within boundary,” measure results with operational KPIs, and preserve human-in-the-loop for high-risk contexts. By tying strategy to verified evidence, organizations can de-risk adoption while still capturing measurable returns.

The exposure picture: scale, heterogeneity, and meaning

The International Monetary Fund estimates that nearly forty percent of jobs worldwide are “exposed” to AI, with the share rising to roughly sixty percent in advanced economies. Within exposed roles, the effect is not one-directional: roughly half the tasks face substitution pressure, while the other half can benefit through complementarity with AI. The key interpretive move is to treat exposure as a spectrum of task-level impact rather than a binary employment outcome. In practice, job redesign, capital allocation, and targeted reskilling mediate whether exposure translates into displacement or augmentation.

The IMF also cautions that AI may widen inequality unless productivity growth is strong and redistribution mechanisms are in place. Degree holders are better positioned to shift into complementary tasks around AI, while older workers may encounter steeper reskilling barriers and more friction in occupational mobility. This does not doom older cohorts to negative outcomes, but it raises the bar for program design and support. Firms should anticipate uneven transition paths and ensure training formats match baseline skills, learning pace, and task structure across different worker groups.

The International Labour Organization adds a refined lens by measuring exposure at the task level and finding that about one quarter of workers globally have meaningful contact with generative AI tools. Exposure tends to be higher in high-income economies, and the distribution shows gender differences that vary by occupation mix and task composition. Read correctly, the macro picture tells leaders to avoid sensational claims about net job loss and focus, instead, on the architecture of tasks. The operating question becomes which tasks to automate, which to augment, and which to keep human-only with strong guardrails.

Field productivity: lessons from a large call-center deployment

Strong evidence on productivity arrives from a large-scale field deployment in customer support. When agents were given access to a conversational AI assistant, average productivity rose meaningfully, with the largest gains accruing to less experienced workers. The mechanism is intuitive: the assistant surfaces candidate responses and embeds tacit organizational knowledge directly in the workflow. Crucially, responsibility for review and final edits remained with agents, preserving quality while raising throughput. The operational lesson is to embed AI where repetitive tasks and institutional knowledge dominate, then set clear quality checkpoints.

The working paper version documents several auxiliary outcomes with direct managerial relevance. Customer sentiment improved, escalation requests declined, and attrition fell, particularly among newer hires. There are also signs of on-the-job learning as workers interact with higher-quality exemplars and absorb organizational style guidelines. For leaders designing AI enablement, these spillovers matter because they compound productivity gains over time. However, these benefits depend on disciplined process design: curate the knowledge base, train agents on tool use and failure modes, and tie productivity metrics to quality thresholds to prevent “metric chasing.”

A second, subtler lesson concerns capability diffusion across teams. Because the assistant effectively codifies best practices, it compresses performance dispersion by pulling the lower tail toward the median. That reallocation can lift service consistency, shorten ramp-up time for new hires, and stabilize scheduling. Yet it also changes coaching dynamics: supervisors must shift from reactive firefighting to proactive pattern detection, using analytics to spot where human review should intensify. In other words, the managerial job does not disappear; it evolves toward orchestration, auditing, and capability building around the augmented workflow.

The “jagged frontier”: when AI helps-and when it hurts

A randomized controlled trial at a major consulting firm shows that AI’s benefits are not evenly distributed across problem types. When tasks fall within the model’s competence boundary, users complete more tasks, work faster, and deliver higher quality. But when tasks are outside that boundary, accuracy drops sharply, underscoring a “jagged technological frontier” with steep performance cliffs. The strategic implication is to invest in task triage before wholesale rollout. Organizations should explicitly map task archetypes to model strengths and set decision rules for when to route work to AI, to humans, or to hybrid collaboration.

The Stanford AI Index reinforces these boundaries by showing that complex reasoning remains a persistent weakness for modern language models, even with increased test-time computation. That limitation is not an abstract academic concern; it directly affects use cases involving multi-step logic, long-horizon planning, or high-stakes decisions. The operational prescription is straightforward: require human-in-the-loop for risky contexts, add process checkpoints, and equip staff to recognize “plausible-sounding” errors. Combined with what we know from exposure data, leaders should resist all-or-nothing thinking and lean into differentiated governance by task type and risk level.

Policy direction at the organizational level should mirror the macro guidance: advanced economies can push deeper integration and legal frameworks, while emerging and developing economies may reap higher returns from foundational digital infrastructure and skills first. Regardless of location, social protection and reskilling sit at the core of a just transition. For firms, that translates into budget lines for structured training, time-boxed pilots with clear exit criteria, and measurement systems that elevate both productivity and quality. Treating AI adoption as an operating system upgrade-not a one-time project-keeps incentives aligned with long-term capability building.

Taken together, the evidence clarifies rather than polarizes the AI discussion. Exposure is broad, but outcomes hinge on task design, capital allocation, and human capability. Productivity gains are real and strongest where institutional knowledge can be surfaced at the point of work, especially for less experienced staff. Yet the jagged frontier and persistent reasoning limit demand humility, segmentation, and robust human oversight wherever stakes are high. Practically, leaders should start with “within-boundary” use cases, codify knowledge, and instrument the workflow with quality gates and escalation paths. In parallel, build reskilling programs that match task structure and learner profiles, and anchor the program in fair incentives and measurement. With those disciplines in place, AI can compound productivity without compounding inequality-and deliver returns that are both defensible and durable.


AI, việc làm và năng suất: bằng chứng mới để triển khai an toàn

Trong nhiều tranh luận, AI vừa được kỳ vọng giải phóng năng suất, vừa bị lo ngại đe doạ việc làm. Bài viết này đã được kiểm chứng, nhằm mô tả chính xác bức tranh phơi nhiễm việc làm ở tầm vĩ mô, hiệu ứng năng suất trong triển khai thực địa, và giới hạn lập luận của mô hình. Trọng tâm là cách diễn giải số liệu thành quyết định vận hành: ưu tiên ca sử dụng “trong biên” năng lực AI, đo lường bằng chỉ số vận hành cụ thể, và duy trì cơ chế human-in-the-loop cho bối cảnh rủi ro cao. Mục tiêu sau cùng là giúp doanh nghiệp triển khai AI an toàn, đo lường được, và mang lại lợi tức rõ ràng.

Bức tranh phơi nhiễm việc làm: quy mô, khác biệt và ý nghĩa

IMF ước tính gần 40% việc làm toàn cầu “phơi nhiễm” AI, và ở các nền kinh tế phát triển con số này khoảng 60%, phản ánh cơ cấu nhiệm vụ giàu tính tri thức hơn. Trong phần việc làm phơi nhiễm, khoảng một nửa có nguy cơ bị thay thế, và một nửa có thể hưởng lợi nhờ tính bổ trợ của AI trong quy trình. Cách hiểu quan trọng ở đây là “phơi nhiễm” không đồng nghĩa mất việc; nó mô tả mức độ tác động tiềm tàng của AI lên nhiệm vụ lao động, tuỳ vào cách doanh nghiệp tổ chức lại công việc và đầu tư vốn con người.

Đồng thời, IMF cảnh báo AI có thể làm tăng bất bình đẳng nếu năng suất không tăng đủ mạnh và thiếu cơ chế tái phân bổ phù hợp. Người có bằng đại học thường dễ dịch chuyển sang các nhiệm vụ bổ trợ với AI, trong khi lao động lớn tuổi đối mặt rào cản tái kỹ năng và chuyển nghề. ILO bổ sung góc nhìn phân tầng bằng chỉ số phơi nhiễm theo tác vụ, ước tính khoảng một phần tư lao động toàn cầu có tiếp xúc đáng kể với GenAI, với mức phơi nhiễm cao hơn tại các quốc gia thu nhập cao và khác biệt giữa các nhóm lao động.

Năng suất trong triển khai thực địa: bài học từ call-center

Bằng chứng mạnh mẽ về hiệu ứng năng suất đến từ nghiên cứu thực địa quy mô lớn trong ngành hỗ trợ khách hàng. Khi các tư vấn viên được truy cập trợ lý hội thoại GenAI, năng suất bình quân tăng đáng kể, rõ nhất ở nhóm ít kinh nghiệm nhờ cơ chế gợi ý trả lời và truyền tri thức ngầm. Thiết kế can thiệp tập trung vào hỗ trợ tác vụ lặp lại, đồng thời vẫn yêu cầu người lao động chịu trách nhiệm kiểm tra và hoàn thiện nội dung trước khi gửi cho khách hàng. Điều này cho phép tăng sản lượng mà không xói mòn tiêu chuẩn chất lượng, khi quy trình giám sát được thiết kế cẩn trọng.

Bản working paper ghi nhận thêm các kết quả phụ có ý nghĩa vận hành, gồm tín hiệu cải thiện cảm xúc khách hàng, giảm nhu cầu chuyển cấp xử lý, và giảm tỷ lệ thôi việc, đặc biệt ở nhóm nhân viên mới. Các dấu hiệu học hỏi xuất hiện khi nhân viên tiếp cận nhiều ví dụ xử lý chuẩn hơn, từ đó rút ngắn đường cong năng lực. Doanh nghiệp có thể khai thác cơ chế này bằng cách chuẩn hoá kho tri thức, huấn luyện cách dùng công cụ, và gắn KPI năng suất với tiêu chí chất lượng để tránh hiệu ứng “chạy số”.

“Jagged frontier”: khi nào AI giúp, khi nào… làm hại

Thí nghiệm ngẫu nhiên có đối chứng tại một hãng tư vấn lớn cho thấy lợi ích của AI không phân bố đồng đều trên mọi nhiệm vụ. Khi nhiệm vụ “nằm trong biên” năng lực mô hình, người dùng hoàn thành nhiều hơn, nhanh hơn và chất lượng cao hơn; nhưng khi “vượt biên”, độ chính xác sụt giảm đáng kể. Kết quả này mô tả một “biên gồ ghề” nơi khả năng của AI thay đổi theo loại vấn đề, cấu trúc đầu vào, và mức độ kiến thức nền yêu cầu triển khai thực tế. Vì thế cần một khung phân loại nhiệm vụ và nguyên tắc quyết định bật/tắt hỗ trợ tự động.

Cùng lúc, AI Index chỉ ra lập luận phức tạp vẫn là điểm yếu bền bỉ của các mô hình hiện đại, ngay cả khi gia tăng tính toán ở thời điểm suy luận. Điều này có hàm ý vận hành rõ ràng: với nghiệp vụ rủi ro cao hoặc cần suy luận nhiều bước, doanh nghiệp phải duy trì human-in-the-loop như một tầng kiểm soát bắt buộc. Phòng ngừa rủi ro ở tầng quy trình và kiểm định đầu ra cần đi kèm đào tạo người dùng về cách phát hiện “ảo giác hợp lý” và quy tắc thoát, thay vì kỳ vọng mô hình thay thế toàn phần.

Nhìn từ dữ liệu đã kiểm chứng, bức tranh trở nên mạch lạc hơn: phơi nhiễm việc làm là rộng, nhưng quỹ đạo kết cục phụ thuộc vào cách tổ chức lại công việc, đầu tư kỹ năng, và thiết kế kiểm soát. Doanh nghiệp nên bắt đầu từ các nhiệm vụ “trong biên” dễ thu lợi nhanh, gắn công cụ vào quy trình có giám sát, và đo lường bằng KPI vận hành như năng suất, chất lượng, và tỷ lệ thôi việc. Ở các ngữ cảnh rủi ro cao hoặc đòi hỏi lập luận phức tạp, giữ nguyên cơ chế human-in-the-loop và tăng cường kiểm định đầu ra. Tầng chính sách nội bộ cần song hành với định hướng vĩ mô: phát triển kỹ năng, hạ tầng dữ liệu, và an sinh chuyển đổi. Khi ba trụ cột này được thiết kế đồng bộ, AI trở thành động lực năng suất bền vững thay vì nguồn gây phân hoá.


Nguồn tham khảo:

IMF - Staff Discussion Note 2024/001 - https://www.imf.org/-/media/Files/Publications/SDN/2024/English/SDNEA2024001.ashx

IMF - Blog (14/01/2024) - https://www.imf.org/en/Blogs/Articles/2024/01/14/ai-will-transform-the-global-economy-lets-make-sure-it-benefits-humanity

ILO - Generative AI and Jobs (2025 update) - https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure

QJE (2025) - Generative AI at Work - https://academic.oup.com/qje/article/140/2/889/7990658

NBER Working Paper 31161 - https://www.nber.org/system/files/working_papers/w31161/w31161.pdf

HBS Working Paper 24-013 - https://www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf

Stanford HAI - AI Index 2025 (Technical Performance) - https://hai.stanford.edu/ai-index/2025-ai-index-report/technical-performance