Tối đa hóa token của toàn bộ nhân viên: Một cuộc chạy đua vũ trang mà không ai dám dừng lại

Tác giả: Đối tác của Wuyuan Capital, Meng Xing; Nguồn: LatePost

Chúng tôi đã đi khảo sát một vòng Silicon Valley, phát hiện ra ngay cả những người tạo sóng cũng sắp bị sóng nhấn chìm rồi.

Vào sáng ngày 24 tháng 3 năm 2026, tôi ngồi trong khán đài của Ngày Demo của YC W26, khi nghe đến công ty thứ năm trình bày, tôi quyết định không ghi chú nữa.

Không phải là không quan trọng, mà là tôi nhận ra những thứ tôi ghi lại có thể đã lỗi thời sau tháng tới.

Trong đợt này, hơn một trăm công ty, thực chất đều tập trung cao độ: khoảng 80% là agent theo chiều dọc, ví dụ như giúp luật sư sắp xếp tài liệu, giúp bộ phận chăm sóc khách hàng phân phát phiếu công tác, giúp HR sàng lọc hồ sơ.

Nếu năm ngoái tháng 10 thấy những dự án này, tôi có khả năng sẽ nghĩ “rất có ý tưởng”. Nhưng vấn đề là, trong năm tháng này, thế giới đã thay đổi.

Claude Code từ một công cụ hướng về nhà phát triển, đã trở thành giao diện gần như ai cũng có thể dùng trực tiếp. Sau khi Opus 4.6 ra mắt, toàn bộ vibe coding đã bị đẩy xuống mức sàn.

Những agent theo chiều dọc, trước khi hình thành rào cản kinh doanh, hôm nay một kỹ sư bình thường, thậm chí chính tôi, chỉ cần một cuối tuần là có thể làm ra, họ đã mất đi giá trị đầu tư rồi.

Chu kỳ dự án của YC là ba tháng, đợt này bắt đầu tháng 12, cộng với quá trình sàng lọc ban đầu, tương đương với “công ty tốt” được chọn ra từ hơn 5 tháng trước. Trong khi đó, 5 tháng, trong tốc độ lặp lại AI hiện nay, đã đủ để xảy ra vài vòng chuyển đổi mô hình.

Lần đầu tôi khởi nghiệp năm 2012, khi nhận được lời mời phỏng vấn trực tiếp của YC, lúc đó YC gần như là một tay chơi độc tôn trong lĩnh vực accelerator, các công ty được chọn thường đại diện cho “hướng đi tiếp theo”. Nhưng thế cục cạnh tranh đang thay đổi, những năm gần đây, YC dần trở thành một lagging indicator (chỉ số trễ).

Hệ thống batch của YC, từ nộp đơn, sàng lọc, nhập trại, hoàn thiện, thuyết trình, đã vận hành hơn mười năm trong thời đại internet di động, rất thành công. Nhưng nhịp độ này là dành cho một thế giới chậm hơn.

Quay lại ngành đầu tư mạo hiểm trong năm rưỡi qua, tôi trung bình mỗi quý đều đến Silicon Valley một lần, lần cuối là tháng 10 năm ngoái. Trước đây mỗi lần đến, tôi đều cảm thấy thay đổi rất nhanh, nhưng phần lớn là theo tháng.

Lần này, phải theo “tuần”.

Một tối nọ, trong bữa tối, một người bạn làm post-training (đào tạo sau) tình cờ nói:

“Tôi phát hiện, chính Silicon Valley cũng bắt đầu không theo kịp chính mình rồi.”

Toàn bộ token-maxxing: Cuộc đua vũ khí không ai dám dừng lại

Nửa năm trước, nếu ai đó nói với tôi rằng, hơn bảy nghìn kỹ sư của Meta đều đang dùng sản phẩm của đối thủ để viết mã, tôi sẽ nghĩ đó là đùa.

Nhưng điều đó là thật. Toàn bộ Meta, tất cả đều đang dùng Claude Code. Đây không phải là startup, không phải nhóm thử nghiệm, mà là một công ty trị giá nghìn tỷ đô la.

Mất an toàn mã nguồn, ngân sách token bùng nổ, bảng xếp hạng tranh đua, toàn Silicon Valley đang đổ tiền không tiếc vào AI. Nhưng sau khi đổ rồi thì sao?

Nói về an toàn mã nguồn. Cách đây nửa năm, chuyện này hoàn toàn không thể tưởng tượng nổi, vì mã nguồn là tài sản cốt lõi của công ty, làm sao có thể để API của một công ty khác chạm vào? Ban đầu Meta cũng nghĩ như vậy, họ đã làm một thứ gọi là myclaw, cố gắng giải quyết vấn đề này. Một người bạn của Meta nói với tôi, họ đã tạo ra sản phẩm coding, nhưng “không dùng được, không ai dùng”. Không ai dùng, công ty buộc phải nới lỏng: chỉ cần không liên quan đến dữ liệu khách hàng, thích dùng Claude Code thì dùng.

Sau đó các phòng ban bắt đầu mở các cuộc họp nội bộ kiểu “làm thế nào để trở thành tổ chức AI native”, tổ chức đào tạo, làm kiểm tra. An toàn mã nguồn, an toàn sử dụng, những giới hạn đạo đức từng là điều tất nhiên, giờ đều bị xếp xuống phía sau, trước mắt là đẩy nhanh hiệu quả.

Vì lý do an toàn, Google cấm hầu hết nhân viên dùng Claude Code hoặc Codex của đối thủ, nhưng DeepMind là ngoại lệ, các nhóm phụ trách mô hình Gemini và ứng dụng nội bộ đều dùng Claude Code.

Google cũng không phải không cố gắng: họ đã ra mắt công cụ mã hóa nội bộ Antigravity, tháng 2 năm nay còn tuyên bố khoảng 50% mã mới của công ty đã do AI viết.

Nhưng dù sao, người của DeepMind vẫn dùng Claude Code. Một lý do quan trọng là Anthropic đã cung cấp cho họ triển khai riêng tư, vì Anthropic đã chạy mô hình suy luận và huấn luyện trên đám mây của Google TPU, dựa trên niềm tin này. Nhưng Meta và các tập đoàn công nghệ khác thì không có mối quan hệ này, họ thật sự bỏ an toàn mã nguồn sang một bên. Tất cả đều cược vào một điều: đẩy nhanh tốc độ.

An toàn mã nguồn chỉ là lá cờ đầu bị đổ, mặt thứ hai là ngân sách token.

Trong vài công ty startup AI-native ở Palo Alto, ngân sách token của một kỹ sư mỗi năm khoảng hơn 200.000 USD. Con số này không quá lạ, điều lạ là nó đã gần bằng chi phí AI của một kỹ sư hàng đầu. Có vẻ như công ty đang dùng AI để cắt giảm nhân sự, nhưng tổng chi phí thực ra không giảm, chỉ là đổi chi phí nhân lực lấy token.

Meta lại cực đoan nhất trong chuyện này. Họ đã lập ra bảng xếp hạng tiêu thụ token nội bộ: ai dùng nhiều nhất sẽ lên bảng, cuối bảng có thể bị sa thải, vì vậy nhân viên Meta còn tranh đua gọi là “token legend” không chính thức.

Nhưng đồng thời, Meta trong năm nay liên tiếp sa thải hàng nghìn người. Một mặt toàn bộ dùng Claude Code để đẩy lượng token, mặt khác lại cắt giảm quy mô nhân sự lớn.

Hai chuyện này không mâu thuẫn, chúng là hai mặt của cùng một vấn đề.

Tôi đã xem một công ty Series C, trưởng phòng kỹ thuật mở Slack cho tôi xem, toàn agent chạy, hàng chục Cursor agent chạy song song, lại mở một cửa sổ Claude Code để điều phối. Hiện tại, các lập trình viên đang lo lắng nhất là: trước khi đi ngủ, không biết mấy agent của mình sẽ làm gì, cảm giác rất hoang mang.

Nhưng năng suất thực sự đã tăng gấp nhiều lần chưa? Từ cuối năm ngoái, nhiều CTO của các công ty hàng đầu về suy luận, cơ sở dữ liệu, đều rất phấn khích kể: “kỹ sư trăm lần, hiệu quả mười lần”, trước đây 60 người cần một năm để làm, giờ chỉ cần 2 người cộng với Claude Code trong một tuần là xong.

Ban đầu tôi cũng cùng họ vui mừng, nhưng sau đó tôi bình tĩnh lại, và đặt ra câu hỏi: Ừ, hiệu quả tăng 100 lần, thì doanh thu của công ty có tăng 100 lần không? Hay là mở rộng dòng sản phẩm 100 lần? Không thể chỉ nâng cao “100 lần” rồi cuối cùng lại cắt giảm bao nhiêu người?

Tôi không nhận được câu trả lời rõ ràng. Thực tế là, nâng cao năng suất 100 lần, khi quy ra doanh thu của công ty, chỉ thể hiện khoảng 50% hoặc 1 lần.

Chênh lệch ở đâu? Hiện tại vẫn chưa ai rõ.

“Dùng nhiều token như vậy, công ty nên biến đổi gen thành một dạng công ty khác rồi. Nhưng biến thành gì, tôi cũng không biết.”

Có một nhà sáng lập xuất thân từ bán hàng B2B nói với tôi, nhóm của anh ấy 16 người, trong đó có hai người bán hàng, trong vòng 12 tháng từ không thành lập đã đạt 30 triệu USD ARR, tất cả đều dựa vào AI coding. Những ví dụ này thực sự thỉnh thoảng mới thấy, nhưng phần lớn tôi thấy là các startup đã tạo ra nhiều thứ hơn, nhưng những thứ đó vẫn chưa phù hợp với thị trường (PMF).

Silicon Valley hiện rất thích dùng vibe coding để thử 100 cách làm, xem cách nào khả thi, chứ không chỉ thử 10 cách. Nhưng ai có thể nắm bắt xu hướng phát triển tiếp theo? Cũng còn rất khó.

Một ví dụ phản diện khiến tôi ấn tượng nhất đến từ nội bộ Anthropic. Tôi hỏi một người bạn của Anthropic, các bạn dùng agent trong tình huống đau đớn nhất là gì? Anh ấy nói là oncall (ứng cứu tức thì).

Một tình huống điển hình của oncall là: nếu API của Claude đột nhiên phản hồi chậm, một nút suy luận của mô hình bị treo, hoặc người dùng phản hồi prompt xuất ra lỗi, kỹ sư oncall cần nhanh chóng xác định nguyên nhân, phân biệt là lỗi mã, vấn đề phân bổ tính toán hay bất thường của mô hình, rồi quyết định cách sửa.

Anthropic chính là công ty mạnh nhất thế giới về Coding agent, tình huống này gần như là cốt lõi của họ, vậy mà internal oncall agent của họ vẫn chưa tốt.

Đây là trạng thái thực tế tháng 4 năm 2026: máy hơi nước đã được phát minh, nhưng đôi khi còn chạy chậm hơn xe ngựa. Điều quan trọng là mọi người đều biết máy hơi nước cuối cùng sẽ chạy nhanh hơn, nên đều đổ tiền điên cuồng: bỏ qua an toàn mã nguồn, ngân sách token bùng nổ, bảng xếp hạng tranh đua. Còn khi nào máy hơi nước thật sự vượt qua xe ngựa thì chưa ai biết, nhưng không ai dám dừng lại chờ đợi ngày đó.

Vì dừng lại có thể còn tốn kém hơn là đốt token sai.

Hơn nữa, lượng tiêu thụ token có khả năng không tăng tuyến tính. Điều này khiến tôi nghĩ về kinh nghiệm lái xe tự động trước đây: năm 2021, chúng tôi ở Thượng Hải, lần đầu tiên thực hiện lái xe tự động liên tục 5 giờ không cần can thiệp. Lúc đó cảm thấy là một bước đột phá lớn, trước đó, đội xe thử nghiệm chỉ có 10, 15, 20 chiếc từ từ tăng lên; nhưng sau điểm đó, nhanh chóng đạt tới 100, rồi 1000 chiếc. Ngày nay, các agent coding đang ở giai đoạn tương tự.

Năm 2021, tại Thượng Hải, Didi tự lái lần đầu tiên đạt liên tục 5 giờ không can thiệp, là một cột mốc của tự lái trong nước. Ảnh là ông Meng Xing, COO của Didi tự lái, trò chuyện với Sebastian Thrun, “cha đẻ xe tự lái” của Google, năm 2021.

METR là tổ chức nghiên cứu của California chuyên đánh giá khả năng mã hóa AI. Họ đã đề xuất một chỉ số năm ngoái: đo lường khả năng của AI agent hoàn thành nhiệm vụ với tỷ lệ thành công 50% (tính theo thời gian hoàn thành của chuyên gia). Tháng 3 năm 2025, khi ra mắt lần đầu, chỉ số này của Claude 3.7 Sonnet là 50 phút; đến cuối năm 2025, Claude Opus 4.6 đã đạt 14.5 giờ. Trong hai năm qua, chu kỳ nhân đôi của chỉ số này đã rút ngắn từ 7 tháng xuống còn 4 tháng. Một khi độ tin cậy của agent đạt bước tiến mới, tiêu thụ token không còn là vấn đề tăng 50% mỗi năm nữa, mà là tăng một cấp độ trong một đêm.

Có một dự đoán được nhiều người đồng thuận là, đến cuối năm nay, nhiều công ty (bao gồm các tập đoàn công nghệ lớn) thực ra chỉ cần 20% nhân lực.

xAI sụp đổ, những người tạo tên lửa bắt đầu tạo mô hình

Tại một nhà hàng steak ở Mountain View, hơn chín giờ tối, một người bạn từng làm việc lâu với Elon Musk ngồi đối diện tôi. Trò chuyện hơn ba giờ, tôi nghĩ lại, trong suốt quá trình đó, anh ấy dường như chưa từng nói tốt về Elon Musk.

Một chi tiết: tôi hỏi anh ấy, anh làm xAI đã ba năm, nhịp sinh hoạt hàng ngày thế nào? Anh ấy nói suốt ba năm gần như ở công ty, nhà cửa không mấy khi trang trí, thậm chí chưa mua nổi giường. Ở công ty, anh ngủ trong sleeping pod (khoang ngủ), giống như nhà trọ sinh viên. Tôi bảo, giờ anh đã nắm cổ phần khổng lồ, đã nghỉ việc rồi, ít nhất cũng mua nổi giường chứ. Anh ấy cười.

Công việc của xAI nổi tiếng ở Silicon Valley, nhưng giờ đội ngũ ban đầu đã rời đi khoảng 90%. Họ có một nhóm rời đi, ngày nào cũng thêm người.

Nguyên nhân là Tony Wu bị sa thải, rồi theo chuỗi phản ứng, theo một người nội bộ nói: “Các công ty khác cần nửa năm để chuẩn bị đội ngũ quản lý rời đi, còn xAI chỉ cần một tháng”. Có người đã cảm nhận được sự không hài lòng của Elon từ tháng 10 năm ngoái, nhưng không ngờ nhanh đến vậy.

Hiện tại, Elon bắt đầu điều nhân sự từ SpaceX và Tesla sang tiếp quản xAI, “người tạo tên lửa bắt đầu tạo mô hình rồi”.

Sự không hài lòng của Elon xuất phát từ việc ông đã bỏ ra vô số tiền và sức mạnh tính toán, nhưng Grok vẫn chưa thể vào hàng đầu, tại sao? Đây là câu hỏi mà mọi người đều hỏi khi nghe về các thành viên của xAI. Câu trả lời thực ra đơn giản hơn tôi nghĩ, một người bạn nói thẳng: “Đội ngũ rất mạnh, làm việc cực kỳ chăm chỉ, nhưng cách quản lý kiểu sản xuất, có thể không phù hợp với công ty mô hình lớn.”

Tôi đã làm tự lái tự động tám năm, có một số cảm nhận riêng về chuyện này. Elon trước đây làm SpaceX, Tesla, về bản chất là làm hệ thống kỹ thuật: chuỗi dài, liên quan đến phần mềm, phần cứng, chuỗi cung ứng, mỗi phần đều có không gian sáng tạo, nhưng cuối cùng là một vấn đề kỹ thuật toàn diện.

Ông giỏi trong việc nhận diện các điểm then chốt trong chuỗi dài đó, rồi tối đa hóa rút ngắn thời gian để vượt qua. Động cơ tên lửa xếp tầng, tái sử dụng hạ cánh, đều là kết quả của tư duy này.

Nhưng ở xAI, ông không làm theo kiểu hệ thống kỹ thuật. Hiện tại, ông làm ba việc: đầu tiên, đổ một đám GPU lớn nhất thế giới (thậm chí giờ mọi người đùa là xAI ban đầu là neo lab, giờ còn giống như neo cloud hơn, trở thành cung cấp sức mạnh tính toán cho Cursor), sau đó đặt ra deadline theo kiểu đột phá, rồi tự mình làm một số đặc điểm sản phẩm. Đây là việc nhắm vào một vài điểm, chứ không phải lập kế hoạch toàn diện.

Những người làm tự lái đều biết, khi đến giai đoạn cuối, các nhóm phần mềm, hạ tầng, phần cứng, “ai làm chủ” sẽ trở thành mâu thuẫn cốt lõi. Ba lĩnh vực này đều cần người cấp CTO để quyết định, nhưng không ai cùng lúc hiểu rõ cả ba. Cách tốt nhất là, nhà sáng lập dù không hiểu hết, nhưng biết cách cân bằng nguồn lực, xác định ưu tiên theo giai đoạn, giai đoạn này ưu tiên phần mềm, giai đoạn sau giao cho hạ tầng. Đó gọi là có kế hoạch toàn cục.

Vấn đề của xAI là không có kế hoạch toàn cục, chỉ có đột phá. Nếu áp lực không quá lớn, những người thông minh có thể tự sửa chữa, cho họ thời gian, các lĩnh vực sẽ tự tìm ra nhịp hợp tác. Nhưng áp lực cực cao của Elon, cộng với thiếu kế hoạch toàn cục đủ đầy, một khi đè nén, mọi thứ sẽ tan rã. Người phụ trách từng lĩnh vực đều giữ ưu tiên của riêng mình, không ai làm tổng thể.

SpaceX và Tesla thành công như vậy, một lý do bị bỏ qua là trong hai ngành này, Elon gần như chưa từng gặp đối thủ cạnh tranh cùng quy mô, ông chỉ tự cạnh tranh với chính mình. Nhưng AI thì khác, AI là cuộc cạnh tranh khốc liệt, thậm chí còn có thể bị Anthropic “ăn cắp” của OpenAI.

Một đồng sáng lập của xAI năm ngoái đã nói có hai điều ông không ngờ tới: thứ nhất là cạnh tranh khốc liệt như vậy, thứ hai là cơ hội đổi mới ứng dụng trong kỷ nguyên AI ít đến mức bị mô hình “ăn” hết.

Sự trỗi dậy của Anthropic là bước ngoặt kịch tính nhất của ngành AI trong năm qua. Đồng thời, nó cũng thay đổi hoàn toàn chiến trường: một năm trước còn cạnh tranh về số lượng người dùng C端 và tạo video, nay (tạm thời) chiến trường quyết định thắng thua là B2B và coding.

Dĩ nhiên, câu chuyện của xAI cũng là câu chuyện về “tiền đến quá nhanh, quá nhiều, sẽ ra sao”.

Tôi nghĩ những người rời khỏi xAI hôm nay cũng không hối tiếc vì quyết định tham gia ngày xưa, xAI đúng là huyền thoại giàu có nhanh nhất của Silicon Valley. Từ vòng gọi vốn đầu tiên vài chục tỷ đô, đến hôm nay hợp nhất với SpaceX, trở thành tập đoàn trị giá 2500 tỷ USD, chỉ trong vòng một năm. Và 9 nhà sáng lập của xAI, gần như mỗi người đều trở thành tỷ phú, các kỹ sư chủ chốt cũng có vài chục triệu đến 1 tỷ USD, tiền của Silicon Valley thật quá nhiều. Hôm nay, họ nếu khởi nghiệp lại, sẽ có đủ tự tin để theo đuổi lĩnh vực mình thích, chứ không chỉ làm những việc kiếm tiền nhanh.

Kỹ sư lo lắng hơn, nhà nghiên cứu còn lo hơn

Nói chuyện với kỹ sư, giờ đây có một sự đồng cảm kỳ lạ: ai cũng thừa nhận mình ít viết code hơn, nhưng đều giả vờ như không có gì, vì họ biết rằng AI sẽ trang bị cho họ, và loại bỏ những kỹ sư chưa AI hóa.

Ngày nay, 80% kỹ sư phần mềm đã bị mô hình thay thế, lý do còn lại là mô hình đôi khi còn ngớ ngẩn, cần người giám sát. Nhưng “giám sát” này có thể sớm cũng không còn cần nữa.

Nghiêm trọng hơn, ý nghĩ “tổ chức native AI” ngày nay nghe có vẻ rất sexy — khiến các phòng ban rà soát quy trình, chuyển phần có thể AI can thiệp thành trực tuyến, viết thành kỹ năng. Nhưng về bản chất, đó là tự làm mỏng chính mình: bạn biến khả năng của mình thành kỹ năng của máy, công ty lấy được kỹ năng của bạn, thực chất đã hoàn thành quá trình AI hóa, còn việc sa thải hay không là vấn đề đạo đức. Hiện Meta đang làm chuyện này.

Dù mọi người vẫn đang tranh đua token-maxxing, nhưng bạn vẫn cảm nhận được một nỗi lo lắng ngấm ngầm trong toàn Silicon Valley.

Điều tôi không ngờ là, nỗi lo này đang lan rộng sang cả nhóm nhà nghiên cứu.

Nhà nghiên cứu là nhóm nhân tài đỉnh cao nhất, không phải là “người nghiên cứu” chung chung, mà là nhóm trong các công ty mô hình lớn (OpenAI, Anthropic, DeepMind, v.v.) phụ trách huấn luyện mô hình, sáng tạo thuật toán. Họ khác kỹ sư ở chỗ: kỹ sư là “làm ra thứ gì đó”, viết code, triển khai, tối ưu hiệu năng; còn nhà nghiên cứu là “nghĩ ra thứ gì đó để làm”: đề xuất phương pháp huấn luyện mới, thiết kế kiến trúc mô hình, chạy thử nghiệm xác nhận giả thuyết.

Và giờ, ngay cả công việc của nhà nghiên cứu cũng đang bị tự động hóa. Đó là việc của các đồng nghiệp DeepMind, dùng mô hình để huấn luyện mô hình, cũng là xu hướng AI tự tiến hóa năm nay. Năm nay, những kỹ sư bị loại bỏ, đến cuối năm, nhà nghiên cứu cũng sẽ bắt đầu bị thay thế.

Điều này không còn là khái niệm mới nữa. Andrej Karpathy đã mở đầu bằng auto research (nghiên cứu tự động), giờ các công cụ AI scientist, framework harness đều đang hướng tới đó. Nhưng phần lớn vòng kín hiện tại mới chỉ dừng lại ở “đăng bài báo” — AI giúp chạy thử nghiệm, viết bài, nhưng cuối cùng vẫn do con người đánh giá.

Các công ty như OpenAI, Anthropic, Google muốn làm tiến xa hơn: họ hy vọng vòng kín sẽ trực tiếp nâng cấp mô hình, không chỉ là cải tiến chi tiết, mà còn để AI tự tìm ra bước đột phá mô hình tiếp theo. Nếu làm được, đó thực sự là thay thế nhà nghiên cứu. Google DeepMind đã thử nghiệm nội bộ hơn một năm, để mô hình tự quyết định thử nghiệm tiếp theo, tự đánh giá xem con đường nào có triển vọng hơn, rồi theo con đường đó, chính là mô hình đang tự huấn luyện thế hệ tiếp theo của chính nó.

Hơn nữa, nhà nghiên cứu còn có động lực bị sa thải vì lý do rất tàn nhẫn — vì đắt. Nhà nghiên cứu toàn cầu chỉ có vài nghìn người, lương hàng năm hàng triệu, thậm chí hàng chục triệu USD.

“Trong tương lai, có thể 10 người làm việc của 100 người, lấy 20% tiền lương, còn 90% người mất việc.”

Và việc sa thải thực tế còn lớn hơn con số bề nổi. Nhiều công ty cắt đầu tiên không phải trên báo cáo tài chính của chính họ, mà là cắt các nhà cung cấp dịch vụ thuê ngoài. Điều này có nghĩa là các quốc gia như Ấn Độ, Philippines, từng dựa vào dịch vụ khách hàng, dán nhãn dữ liệu, hậu cần tài chính, có thể là những nơi bị tác động đầu tiên. Những quốc gia dựa vào “bậc thang dịch vụ” để nâng cấp kinh tế có thể đang bị AI rút đi.

Toàn Silicon Valley đều đang dõi theo Meta, nếu họ thành công — doanh thu không giảm, hiệu quả thực sự tăng — các tập đoàn lớn khác sẽ nhanh chóng bắt theo, sa thải sẽ trở thành chuyện phổ biến trong ngành. Và cơ chế tự thúc đẩy quá trình sa thải còn tàn nhẫn hơn: ban đầu mọi người không dám sa thải, sợ ảnh hưởng tinh thần; khi đã thành thói quen, càng sa thải càng nhanh, càng không tiếc.

Nhưng cùng lúc, khi cắt bỏ các vị trí cũ, các vị trí mới cũng đang xuất hiện.

Nhiều startup bắt đầu tuyển dụng một vai trò mới gọi là “AI builder” — kết hợp product manager, kỹ sư front-end, back-end thành một. Cũng có những vị trí ghép giữa nhà khoa học dữ liệu và kỹ sư machine learning, hoặc các vị trí tích hợp viết nội dung, chạy quảng cáo, vận hành.

Các công ty Silicon Valley rất cần những vai trò mới này, nhưng vấn đề cốt lõi là: không ai biết cách tuyển họ. Không thể dựa vào hồ sơ để chọn, vì vai trò này chưa từng tồn tại, khả năng của người đó có thể đều nằm trong dự án cá nhân; cũng không thể kiểm tra bằng viết code trực tiếp, vì năng lực cốt lõi là “thẩm mỹ + khả năng sử dụng AI”. Đã có startup bắt đầu làm chuyện này: dựa theo yêu cầu của nhà tuyển dụng, tự động tạo ra môi trường mô phỏng, cho ứng viên dùng AI để hoàn thành nhiệm vụ. Giống như bài kiểm tra coding ngày xưa, nhưng kiểm tra một thứ hoàn toàn mới.

Khi AI có thể làm mọi thứ, giá trị của con người đang chuyển từ “biết làm gì” sang “đánh giá xem cái gì đáng làm, cái gì không nên làm”.

Vòng gọi vốn đầu tiên, hai mức định giá, Nvidia luôn phải đặt cược trên bàn chơi

Nói về những người bị thay thế như kỹ sư, nhà nghiên cứu, nhân viên tài chính, nhưng có một vai trò không những không bị thay thế, mà còn ngày càng trở thành “ông trùm” đằng sau các cuộc chơi.

Thế giới đổi mới phân tán này, thực ra lại cực kỳ tập trung.

Đó chính là Nvidia.

Tôi nghĩ rằng, sự khan hiếm của card đã giảm bớt trong năm qua. Thật vậy, có thời điểm, vào giữa 2025, một số nhà cung cấp neo cloud do Nvidia hỗ trợ, chuyên cung cấp GPU cho làn sóng AI, gặp khó khăn trong gọi vốn, có công ty còn bán mình vào thời điểm đó. Nhưng lần này tôi đến, phát hiện sự khan hiếm đã trở lại, còn hơn cả trước.

Một tín hiệu rõ ràng: nếu bạn có thể cung cấp API ổn định cho Claude, đạt mức 99 percentile, bạn có thể bán với giá gấp 2-3 lần giá API chính thức.

Sau khi Anthropic nhu cầu tăng vọt, các API bị gián đoạn ngày càng nhiều, gây khó khăn cho nhiều sản phẩm Agent dựa trên Claude.

Trước đây, làm Router (dịch vụ định tuyến) kiểu này là “tôi rẻ hơn chính hãng, nên có lượng truy cập”. Giờ thì hoàn toàn ngược lại: tính ổn định đã trở thành tài nguyên khan hiếm. Một số startup đã kiếm được rất nhiều tiền từ chuyện này, giờ các “mini Coreweave / Nebius” của Silicon Valley mọc lên như nấm sau mưa.

Và lần này, giới hạn về sức mạnh tính toán không chỉ là phân bổ GPU. Elad Gil gần đây viết một bài rất đúng, rằng chu kỳ mở rộng năng lực của các nhà sản xuất bộ nhớ (Hynix, Samsung, Micron) ít nhất là hai năm nữa. Điều này có nghĩa là trước năm 2028, không công ty AI nào có thể dựa vào tăng cường sức mạnh tính toán để tạo ra khác biệt rõ rệt. Giới hạn về sức mạnh tính toán đang củng cố vị thế của các tập đoàn lớn trong thị trường mô hình lớn — không phải là do họ không cố gắng, mà là do chu kỳ sản xuất vật lý quá chậm.

Cấu trúc quyền lực phía sau rõ ràng: ai có card thì mạnh, ai có card thì do Nvidia quyết định. Các công ty như CoreWeave, Lambda, Nebius đều đứng sau Nvidia.

Nvidia đã có chiến lược sâu hơn tôi nghĩ. Các nhà đầu tư của Reflection từng nói, khi Nvidia bắt đầu cấp vốn cho neo lab, họ đã đề nghị: “Đừng làm coding nữa, hãy ra ngoài làm ‘DeepSeek của Mỹ’, phát triển mô hình mã nguồn mở của Mỹ, tôi sẽ cho tiền và card cho bạn.” Reflection đã chuyển hướng hoàn toàn.

Thị trường vốn Mỹ cũng xuất hiện một số cấu trúc hiếm thấy trước đây: trong cùng một vòng gọi vốn, có hai mức định giá. Các nhà đầu tư quen biết, vào sớm, sẽ đầu tư ở mức thấp; còn các ông lớn như Nvidia, không thiếu tiền, sẽ đẩy vào mức cao hơn. Cấu trúc này gần đây cũng bắt đầu xuất hiện ở trong nước.

Nhưng dù Nvidia muốn kiểm soát phân phối, cũng không thể kiểm soát những thứ không tồn tại.

Toàn bộ xã hội Mỹ đang phản đối dữ liệu trung tâm. Hiện có khoảng 100 dự án trung tâm dữ liệu đang gặp trở ngại, trong đó 40 dự án có thể bị hủy bỏ ngay lập tức. Bang Maine vừa ban hành luật cấm xây dựng trung tâm dữ liệu. Một thị trấn phê duyệt dự án trung tâm dữ liệu trị giá 6 tỷ USD, kết quả là nửa số thành viên bị bãi nhiệm qua đêm, người mới được bầu vào chỉ để hủy quyết định đó.

Sức mạnh tính toán không đủ không phải vì sản phẩm không tốt, không đủ người dùng, mà là vì thế giới vật lý không theo kịp “kỳ vọng” của thế giới số.

Đây là một dạng “bị tụt hậu” khác.

Hệ thống định giá của Silicon Valley đang được viết lại

Chỉ số đầu tiên: GDP Mỹ khoảng 30 nghìn tỷ USD. Hiện tại, doanh thu hàng năm của OpenAI và Anthropic đều khoảng 30 tỷ USD, nghĩa là mỗi công ty đã chiếm khoảng 0.1% GDP Mỹ. Nếu cuối năm cả hai đều đạt 100 tỷ, cộng thêm dịch vụ đám mây và các khoản thu khác từ AI, thì AI sẽ chiếm khoảng 1% GDP Mỹ. Từ gần như bằng không đến 1% chỉ trong vài năm.

Tốc độ này chưa từng có tiền lệ. Nhưng kỳ lạ là, tốc độ tăng trưởng càng nhanh, các nhà đầu tư càng không biết định giá thế nào — trước tốc độ tăng này, khung định giá của Silicon Valley đang sụp đổ.

Tôi đã thảo luận nhiều vòng với một số bạn làm thị trường thứ cấp, và một từ lặp lại là “re-rationalization” (hồi quy về lý trí trong định giá).

Trong vài năm qua, đầu tư AI, lý luận định giá của mọi người dựa trên dòng tiền tương lai: hôm nay lỗ cũng không sao, tôi cược vào doanh thu hàng năm sau 3, 5 năm của bạn. Nhưng giờ, khung này đã có vấn đề.

Vấn đề nằm ở mô hình định giá DCF (chiết khấu dòng tiền) cơ bản nhất. Thường thì, dự đoán dòng tiền 10 năm tới, cộng thêm terminal value (giá trị cuối kỳ), giả định công ty sẽ vận hành ổn định sau đó, rồi gom lại một khoản giá trị còn lại. Thường thì terminal value chiếm 70-80% toàn bộ định giá.

Nhưng giờ, có hai điều cùng thay đổi: thứ nhất, bạn chỉ có thể dự đoán 3 năm chứ không phải 10, vì sau 3 năm (đôi khi chỉ 1 năm), ngành này sẽ ra sao, hoàn toàn không rõ; thứ hai, terminal value còn khó tính hơn, vì giả định cuối cùng là công ty sẽ vận hành ổn định, nhưng nếu AI có thể thay đổi mọi thứ bất cứ lúc nào, thì giả định “ổn định” này không còn đúng nữa.

Tôi ví von với một người bạn làm đầu tư thứ cấp: những công ty không nằm trong lĩnh vực chính của AI ngày nay, giống như đang chờ một “quả bom hạt nhân”, biết chắc sẽ bị phá hủy, chỉ là chưa biết khi nào. Vậy thì, trọng tâm đánh giá không còn là “nếu không bị phá hủy sẽ thế nào”, mà là “khi bị phá hủy, phản ứng của bạn nhanh đến mức nào”. Đây hoàn toàn là một dạng định giá khác.

SaaS là lĩnh vực đầu tiên bị Wall Street định giá lại. Năm 2023, theo dòng tiền tự do, Snowflake cần gần 100 năm để hoàn vốn, nay đã giảm một nửa; ServiceNow, Workday cũng theo xu hướng này, mới chỉ bắt đầu.

Thậm chí, nói ngược lại, các công ty mô hình lớn phù hợp để định giá bằng DCF, vì tương lai của họ dường như ổn định, không bị “bắn nổ”, mà đang tiến tới một giới hạn tích cực.

Các startup mới thường nói: “Lương thấp hơn chút, nhưng cho quyền chọn cổ phiếu, sau này sẽ có giá trị lớn.” Nhưng giả định này dựa trên việc công ty còn tồn tại, còn có giá trị sau 15-20 năm. Nếu giả định đó không còn đúng nữa, phản ứng hợp lý nhất của nhân viên là: “Đừng cho tôi quyền chọn nữa, trả lương bằng tiền mặt luôn đi.”

Điều này lại làm thay đổi cấu trúc chi phí và cơ chế huy động vốn của công ty.

Các quỹ đầu tư cũng đang đau đầu. Trong 3-6 tháng qua, hầu hết các quỹ ở Silicon Valley đều đã đầu tư ít nhất một công ty neo lab, những nhà nghiên cứu từ các phòng lab danh tiếng, mang ý tưởng của mình gọi vốn vài tỷ USD. Nhưng giờ, ai cũng cảm thấy hơi quá đà, hơi đắt. Nhưng sao vẫn đầu tư? Bởi vì, nếu công ty đó thực sự làm ra được, tốc độ tăng trưởng sẽ nhanh đến mức khiến bạn nghĩ mức định giá ban đầu là rẻ.

Một nhà đầu tư nói thẳng: “Dù sao cũng là từ zero đến 100, hoặc là từ zero đến zero, thay vì bỏ tiền vào vòng A đắt đỏ để kiếm ‘tiền vặt’, thì cứ cược vào một neo lab có khả năng vô hạn.”

Trước đây, mọi người nghĩ 1 đồng ARR là 1 đồng ARR, dù là làm mô hình, ứng dụng hay hạ tầng. Nhưng giờ, phép tính đó đã bị phá vỡ.

Các agent theo chiều dọc có hệ số nhân thấp nhất (khoảng 5 lần), agent tổng quát có hệ số cao hơn (khoảng 10 lần), còn mô hình lớn nhất (ví dụ Anthropic 30 tỷ USD ARR, định giá 800 tỷ USD, hệ số 26.7 lần). Một năm trước, tôi nghĩ dựa vào nhân ARR với một hệ số chung để tính định giá là hợp lý, nhưng giờ thì hoàn toàn sai.

Cây cam và danh sách sát thủ AI

Silicon Valley đang trải qua một cuộc khủng hoảng an toàn sâu sắc.

Trong chuyến đi này, tôi nghe đi nghe lại một chủ đề: mua Bitcoin, xây hầm trú ẩn, lắp kính chống đạn cho nhà, tất cả đều không phải là chuyện đùa.

Gần đây, Silicon Valley rất chuộng trồng cây cam, vì cành cây có gai dài 4 inch, ai cố gắng vượt qua đều phải trả giá.

Thậm chí, Wall Street Journal còn đưa tin về một “biệt thự pháo đài” trị giá 15 triệu USD: trong chậu bê tông trồng cây cam, phía sau là hào sâu, sau hào là hệ thống cảm biến laser, cửa chính là thép đặc dày 3 inch với 13 ổ khóa, trong nhà có phòng trú ẩn an toàn nặng 2000 pound, thậm chí cảnh quan cũng là công trình phòng thủ.

Các doanh nghiệp cung cấp dịch vụ an ninh nhà ở cho CEO, đạt mức tăng trưởng cao nhất kể từ 2003. Đặc biệt, sau vụ CEO của UNH bị bắn chết trên phố Manhattan, xu hướng này càng tăng tốc.

Rồi, tiếng súng lại vang đến nhà các ông lớn AI.

Vào rạng sáng ngày 11 tháng 4, một chàng trai 20 tuổi mặc hoodie Champion, từ Texas bay đến California, cầm can xăng, đứng trước cổng nhà Sam Altman trị giá 27 triệu USD, phóng lựu đạn xăng vào trong.

Sau một giờ rưỡi, anh

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim