RL

Tính giá Ralph Lauren Corp

Đã đóng
RL
₫8.349.302,71
+₫97.044,71(+1,17%)

*Dữ liệu cập nhật lần cuối: 2026-05-02 08:38 (UTC+8)

Tính đến 2026-05-02 08:38, Ralph Lauren Corp (RL) đang giao dịch ở ₫8.349.302,71, với tổng vốn hóa thị trường là ₫506,30T, tỷ lệ P/E là 18,17 và tỷ suất cổ tức là 1,00%. Giá cổ phiếu hôm nay biến động trong khoảng ₫8.187.484,69 và ₫8.413.153,98. Giá hiện tại cao hơn 1,97% so với mức thấp nhất trong ngày và thấp hơn 0,75% so với mức cao nhất trong ngày, với khối lượng giao dịch là 398,76K. Trong 52 tuần qua, RL đã giao dịch trong khoảng từ ₫8.132.623,31 đến ₫8.915.435,27 và giá hiện tại cách mức cao nhất trong 52 tuần -6,35%.

Các chỉ số chính của RL

Đóng cửa hôm qua₫8.267.010,64
Vốn hóa thị trường₫506,30T
Khối lượng398,76K
Tỷ lệ P/E18,17
Lợi suất cổ tức (TTM)1,00%
Số lượng cổ tức₫21.045,56
EPS pha loãng (TTM)15,03
Thu nhập ròng (FY)₫17,12T
Doanh thu (FY)₫163,17T
Ngày báo cáo thu nhập2026-05-21
Ước tính EPS2,46
Ước tính doanh thu₫42,34T
Số cổ phiếu đang lưu hành61,24M
Beta (1 năm)1.479
Ngày giao dịch không hưởng quyền2026-03-27
Ngày thanh toán cổ tức2026-04-10

Giới thiệu về RL

Tập đoàn Ralph Lauren thiết kế, tiếp thị và phân phối các sản phẩm phong cách sống tại Bắc Mỹ, châu Âu, châu Á và quốc tế. Công ty cung cấp quần áo, bao gồm các loại quần áo dành cho nam, nữ và trẻ em; giày dép và phụ kiện, gồm giày dép thường ngày, giày dự tiệc, giày boots, giày thể thao, dép sandal, kính mắt, đồng hồ, trang sức thời trang và cao cấp, khăn quàng cổ, mũ, găng tay và ô dù, cũng như các mặt hàng da như túi xách, hành lý, đồ da nhỏ và thắt lưng; các sản phẩm gia đình gồm bộ đồ giường và phòng tắm, nội thất, vải và giấy dán tường, đèn chiếu sáng, đồ dùng bàn ăn, khăn trải bàn, đồ linen nhà bếp, thảm trải sàn và quà tặng; cùng các loại nước hoa. Công ty bán quần áo và phụ kiện dưới các thương hiệu Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Trẻ em và Chaps; nước hoa dành cho nữ dưới các thương hiệu Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection và Ralph Collection; và nước hoa dành cho nam dưới các thương hiệu Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport và Big Pony Men's. Bộ sưu tập nhà hàng của công ty gồm The Polo Bar tại New York City; RL Restaurant ở Chicago; Ralph's tại Paris; The Bar at Ralph Lauren tại Milan; và mô hình cà phê Ralph's. Công ty bán sản phẩm của mình cho các cửa hàng bách hóa, cửa hàng chuyên biệt, cửa hàng golf và cửa hàng chuyên nghiệp, cũng như trực tiếp tới người tiêu dùng qua các cửa hàng bán lẻ, các cửa hàng trong cửa hàng dựa trên nhượng quyền, và các trang thương mại điện tử. Công ty trực tiếp vận hành 504 cửa hàng bán lẻ và 684 cửa hàng trong cửa hàng dựa trên nhượng quyền; và vận hành 175 cửa hàng Ralph Lauren, 329 cửa hàng xưởng và 148 cửa hàng cùng các cửa hàng và shop qua các đối tác nhượng quyền. Ralph Lauren Corporation được thành lập vào năm 1967 và có trụ sở chính tại New York, New York.
Lĩnh vựcChu kỳ tiêu dùng
Ngành nghềThời trang - Nhà sản xuất
CEOPatrice Jean Louis Louvet
Trụ sở chínhNew York City,NY,US
Trang web chính thứchttp://corporate.ralphlauren.com
Nhân sự (FY)23,40K
Doanh thu trung bình (1 năm)₫6,97B
Thu nhập ròng trên mỗi nhân viên₫731,81M

Câu hỏi thường gặp về Ralph Lauren Corp (RL)

Giá cổ phiếu Ralph Lauren Corp (RL) hôm nay là bao nhiêu?

x
Ralph Lauren Corp (RL) hiện đang giao dịch ở mức ₫8.349.302,71, với biến động 24h qua là +1,17%. Phạm vi giao dịch 52 tuần là từ ₫8.132.623,31 đến ₫8.915.435,27.

Mức giá cao nhất và thấp nhất trong 52 tuần của Ralph Lauren Corp (RL) là bao nhiêu?

x

Tỷ lệ giá trên thu nhập (P/E) của Ralph Lauren Corp (RL) là bao nhiêu? Nó chỉ ra điều gì?

x

Vốn hóa thị trường của Ralph Lauren Corp (RL) là bao nhiêu?

x

Lợi nhuận trên mỗi cổ phiếu (EPS) hàng quý gần đây nhất của Ralph Lauren Corp (RL) là bao nhiêu?

x

Bạn nên mua hay bán Ralph Lauren Corp (RL) vào thời điểm này?

x

Những yếu tố nào có thể ảnh hưởng đến giá cổ phiếu Ralph Lauren Corp (RL)?

x

Làm thế nào để mua cổ phiếu Ralph Lauren Corp (RL)?

x

Cảnh báo rủi ro

Thị trường chứng khoán tiềm ẩn rủi ro cao và biến động giá mạnh. Giá trị khoản đầu tư của bạn có thể tăng hoặc giảm, và bạn có thể không thu hồi được toàn bộ số tiền đã đầu tư. Hiệu suất hoạt động trong quá khứ không phải là chỉ báo đáng tin cậy cho kết quả tương lai. Trước khi đưa ra bất kỳ quyết định đầu tư nào, bạn nên đánh giá cẩn thận kinh nghiệm đầu tư, tình hình tài chính, mục tiêu đầu tư và khả năng chấp nhận rủi ro của mình, đồng thời tự mình nghiên cứu. Nếu cần thiết, hãy tham khảo ý kiến của một cố vấn tài chính độc lập.

Tuyên bố từ chối trách nhiệm

Nội dung trên trang này chỉ được cung cấp cho mục đích thông tin và không cấu thành tư vấn đầu tư, tư vấn tài chính hoặc khuyến nghị giao dịch. Gate sẽ không chịu trách nhiệm đối với bất kỳ tổn thất hoặc thiệt hại nào phát sinh từ các quyết định tài chính đó. Hơn nữa, xin lưu ý rằng Gate có thể không cung cấp đầy đủ dịch vụ tại một số thị trường và khu vực pháp lý nhất định, bao gồm nhưng không giới hạn ở Hoa Kỳ, Canada, Iran và Cuba. Để biết thêm thông tin về các Khu vực bị hạn chế, vui lòng tham khảo Thỏa thuận người dùng.

Thị trường giao dịch khác

Tin tức mới nhất về Ralph Lauren Corp (RL)

2026-04-23 04:54

Perplexity 公布网页搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上优于 GPT-5.4

Gate News 消息,4 月 23 日——Perplexity 的研究团队发布了一篇技术文章,详细说明其针对网页搜索代理的后训练方法。该方法使用两个开源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B),并采用两阶段流水线:先进行监督微调 (SFT),以建立指令遵循与语言一致性;随后进行在线强化学习 (RL),以优化搜索准确率与工具使用效率。 强化学习阶段使用 GRPO 算法,并结合两种数据源:一种专有的多跳可验证问答数据集,由内部种子查询构建而成,要求推理 2–4 跳,并通过多求解器验证;以及基于评分标准的通用对话数据,将部署需求转换为客观可检验的原子条件,从而防止 SFT 行为退化。 奖励设计采用门控聚合——只有在达到基线正确性时,偏好分数才会计入 (question-answer 匹配或满足所有评分标准),从而避免高偏好信号掩盖事实错误。效率惩罚使用组内锚定:对工具调用以及生成长度施加平滑惩罚,且该基线以同一组中正确答案的长度为准。 评估结果表明,Qwen3.5-397B-SFT-RL 在各项搜索基准上实现同级最佳表现。在 FRAMES 上,它在单次工具调用时达到 57.3% 准确率,较 GPT-5.4 高 5.7 个百分点;较 Claude Sonnet 4.6 高 4.7 个百分点。在中等预算 (四次工具调用) 条件下,它以每次查询 $0.02 实现 73.9% 准确率;相比之下,GPT-5.4 为每次查询 $0.085 且准确率 67.8%,Sonnet 4.6 为每次查询 $0.153 且准确率 62.4%。成本数据基于各提供方公开的 API 定价,并不包含缓存优化。

2026-03-21 00:19

Cursor chính thức xác nhận Kimi K2.5 là nền tảng, Mặt tối của mặt trăng: thuộc về hợp tác thương mại được cấp phép

Gate News tin tức, ngày 21 tháng 3, theo dõi của 1M AI News, tài khoản chính thức của 月之暗面 @Kimi_Moonshot đã đăng bài chúc mừng Cursor phát hành Composer 2, và giải thích rằng Cursor thông qua nền tảng RL và suy luận được lưu trữ bởi Fireworks AI để truy cập Kimi K2.5, thuộc về hợp tác thương mại có phép. Đồng sáng lập Cursor Aman Sanger và Phó Chủ tịch giáo dục nhà phát triển Lee Robinson sau đó đã công khai xác nhận nguồn gốc của nền tảng và tiết lộ chi tiết kỹ thuật. Sanger cho biết nhóm đã thực hiện đánh giá độ phức tạp của nhiều nền tảng, Kimi K2.5 "chứng minh là mạnh nhất", sau đó tiếp tục huấn luyện lại và mở rộng quy mô gấp 4 lần với sức mạnh tính toán cao, và triển khai qua bộ suy luận và bộ lấy mẫu RL của Fireworks AI. Robinson bổ sung rằng, trong mô hình cuối cùng, sức mạnh tính toán từ nền tảng chiếm khoảng 1/4, phần còn lại 3/4 đến từ chính quá trình huấn luyện của Cursor. Cả hai nhà sáng lập đều thừa nhận việc không đề cập đến nguồn gốc nền tảng Kimi trong bài đăng blog là "một sai sót", và cam kết trong lần phát hành mô hình tiếp theo sẽ ghi rõ nguồn gốc nền tảng ngay lập tức. Trước đó, Elon Musk đã trả lời trong bài thảo luận liên quan rằng "Yeah, it's Kimi 2.5", làm tăng thêm độ nóng của chủ đề.

2026-03-20 09:47

Cursor Composer 2 bị cáo buộc sử dụng mô hình Kimi K2.5, Moonshot AI tố cáo nó không tuân thủ giấy phép

Tin tức Gate, ngày 20 tháng 3, theo theo dõi của 1M AI News, nhà phát triển @fynnso khi thử nghiệm yêu cầu API Cursor đã phát hiện rằng ID mô hình thực tế của Composer 2 là kimi-k2p5-rl-0317-s515-fast, nghĩa là "Kimi K2.5 + RL". Người phụ trách tiền huấn luyện của Moonshot AI, Đỗ Vũ Luân, đã đăng tweet ngay sau đó, nói rằng nhóm của ông khi thử tokenizer của Composer 2 đã phát hiện ra "hoàn toàn giống với tokenizer Kimi của chúng tôi", "gần như có thể xác nhận đây là kết quả của việc mô hình của chúng tôi bị huấn luyện lại thêm", và trực tiếp @ đồng sáng lập Cursor, Michael Truell, chất vấn "tại sao không tôn trọng giấy phép của chúng tôi, cũng không thanh toán bất kỳ khoản phí nào". Khi phát hành Composer 2 vào ngày 19 tháng 3, Cursor cho biết hiệu suất cải thiện đến từ "tiếp tục huấn luyện mô hình nền lần đầu tiên, sau đó kết hợp học tăng cường", nhưng toàn bộ quá trình không đề cập đến Kimi K2.5. Kimi K2.5 sử dụng phiên bản sửa đổi của giấy phép MIT, quy định rõ ràng: các sản phẩm thương mại có hoạt động hàng tháng vượt quá 100 triệu hoặc doanh thu hàng tháng vượt quá 20 triệu USD phải rõ ràng ghi chú "Kimi K2.5" trên giao diện người dùng. Với định giá Cursor là 29.3 tỷ USD và quy mô người dùng trả phí, ngưỡng doanh thu hàng tháng gần như chắc chắn sẽ bị kích hoạt. Đến thời điểm đăng bài, Cursor chưa phản hồi công khai.

2026-02-12 14:21

Gradient giới thiệu khung học tăng cường phân tán Echo-2 và dự kiến ra mắt nền tảng RLaaS Logits

Foresight News đưa tin, phòng thí nghiệm AI phân tán Gradient đã phát hành khung công tác học tăng cường phân tán Echo-2, nhằm phá vỡ rào cản hiệu quả đào tạo nghiên cứu AI. Khung công tác này thực hiện tách rời Learner và Actor ở cấp kiến trúc, nhằm giảm chi phí hậu huấn luyện cho các mô hình lớn. Theo dữ liệu chính thức, khung công tác này có thể giảm chi phí hậu huấn luyện của mô hình 30B từ 4500 USD xuống còn 425 USD. Echo-2 sử dụng công nghệ phân tách lưu trữ và tính toán để thực hiện huấn luyện bất đồng bộ (Async RL), hỗ trợ chuyển tải sức mạnh lấy mẫu đến các phiên bản card đồ họa không ổn định và card đồ họa đa dạng dựa trên Parallax. Khung công tác này kết hợp các công nghệ như độ cũ giới hạn, lập lịch chịu lỗi theo từng phiên bản và giao thức truyền thông Lattica tự phát triển, giúp nâng cao hiệu quả huấn luyện trong khi duy trì độ chính xác của mô hình. Ngoài ra, Gradient dự kiến ra mắt nền tảng RLaaS (Học tăng cường dưới dạng dịch vụ) Logits, hiện đã mở đăng ký cho sinh viên và nhà nghiên cứu.

2026-01-02 09:15

Mechanism Capital đối tác: Quy mô dữ liệu AI thực thể sẽ mở rộng gấp 100 lần vào năm 2026

PANews đã báo cáo vào ngày 2 tháng 1 rằng Andrew Kang, một đối tác tại Mechanism Capital, đã đăng trên nền tảng X rằng vào năm 2025, lĩnh vực robot sẽ giải quyết các thách thức về kiến trúc mô hình và đào tạo lâu dài, đồng thời đạt được tiến bộ đáng kể trong công nghệ thu thập dữ liệu, hiểu chất lượng dữ liệu và xây dựng dữ liệu, giúp các công ty trí tuệ nhân tạo tự tin rằng cuối cùng họ sẽ bắt đầu đầu tư vào thu thập dữ liệu quy mô lớn và các công ty như Figure, Dyna và PI sẽ sử dụng học tăng cường (RL) Công nghệ tiên tiến đã đạt được tỷ lệ thành công hơn 99% trong các tình huống ứng dụng thực tế khác nhau. Ngoài ra, những tiến bộ trong công nghệ bộ nhớ đã phá vỡ "bức tường bộ nhớ", ReMEmber của NVIDIA sử dụng điều hướng dựa trên bộ nhớ, Titans và MIRAS đạt được bộ nhớ thời gian thử nghiệm và các mô hình định vị ảo (VLM) tốt hơn có nghĩa là mảng định vị ảo (VLA) có khả năng hiểu không gian tốt hơn, cũng như các quy trình xử lý và chú thích dữ liệu có thể cải thiện đáng kể thông lượng. Vào năm 2025, thị trường ban đầu sẽ đánh giá cao khả năng lập bản đồ khả năng không bắn, độ nhạy của cường độ thị giác và suy luận vật lý chung do quy mô dữ liệu mang lại, và quy mô dữ liệu AI vật lý sẽ mở rộng gấp 100 lần vào năm 2026.

Bài viết hot về Ralph Lauren Corp (RL)

ChainNewsAbmedia

ChainNewsAbmedia

2 tiếng trước
Đội nghiên cứu tại Đại học California, Berkeley đã đề xuất một phương pháp huấn luyện AI mới là GEPA, và đã được ICLR 2026 chấp nhận dưới dạng bài báo Oral. GEPA không cập nhật trọng số mô hình, không cần huấn luyện bằng GPU, chỉ dùng một LLM có nhiệm vụ “đọc lại các bản ghi huấn luyện” để liên tục viết lại prompt của hệ thống AI; nhờ đó, trong 6 nhiệm vụ, GEPA trung bình vượt các phương pháp tăng cường học tập phổ biến GRPO 6%, cao nhất vượt 20%, đồng thời số lần thử huấn luyện (rollouts) ít hơn 35 lần. Sau khi được cộng đồng kỹ sư AI tổng hợp và thảo luận trên X, hiện GEPA đã được tích hợp vào DSPy với vị thế một bộ tối ưu hóa “hạng nhất”. GEPA đang làm gì: coi “bản ghi huấn luyện” như giáo trình, thay vì chỉ nhìn điểm số Quy trình của các phương pháp tăng cường học tập truyền thống (như GRPO) là: cho AI chạy một lần nhiệm vụ, dựa trên kết quả gán một điểm “+1 hoặc -1”, rồi dùng điểm số đó để lặp lại điều chỉnh trọng số mô hình. Vấn đề là quá trình AI chạy một nhiệm vụ thường bao gồm các bước suy luận dài hàng nghìn token, gọi công cụ, và ghi lại lỗi—những chi tiết phong phú này bị nén lại thành một điểm số duy nhất, trong khi thông tin theo tiến trình bị loại bỏ. Vì vậy, RL cần chạy hàng chục nghìn lần để hội tụ. Cách làm của GEPA lại ngược: sau mỗi lần AI chạy xong nhiệm vụ, toàn bộ quá trình (reasoning, lời gọi công cụ, lịch sử lỗi) được chuyển nguyên vẹn sang một “LLM phản tư” để đọc. LLM phản tư giống như một kỹ sư phần mềm giàu kinh nghiệm đọc log chương trình: tìm ra bước nào gây lỗi, vì sao lỗi, và cần sửa prompt như thế nào, rồi trực tiếp viết lại prompt của chính mô-đun đó. Cũng chạy một lần nhiệm vụ như trước, nhưng lượng tín hiệu mà GEPA trích xuất được nhiều hơn đáng kể so với RL chỉ nhận một điểm số. Vì sao có thể thắng: chuyển từ “chấm điểm” sang “đọc cả đoạn quá trình” GEPA trong 6 nhiệm vụ trung bình thắng GRPO 6%, cao nhất thắng 20%; đồng thời so với một bộ tối ưu hóa prompt phổ biến khác là MIPROv2 cũng thắng hơn 10% (trên bộ chuẩn AIME-2025 về bài toán toán học, tăng 12%). Quan trọng nhất là chi phí huấn luyện: để đạt hiệu năng tương đương, GEPA cần số rollouts (một lần chạy đầy đủ nhiệm vụ) ít hơn 35 lần. Một dữ liệu khác là sau khi tích hợp GEPA với DSPy, “Full Program Adapter” có thể tối ưu toàn bộ chương trình DSPy (bao gồm signature, mô-đun, luồng điều khiển). Trên chuẩn MATH về toán học, nó đạt 93% độ chính xác, vượt xa cách viết ChainOfThought gốc của DSPy ở mức 67%. GEPA cũng thể hiện đặc biệt tốt trong các quy trình multi-module (tác nhân AI ghép nối nhiều mô-đun): có thể chính xác khoanh vùng đúng mô-đun gây lỗi để viết lại prompt, thay vì chỉ chỉnh sửa toàn bộ hệ thống. Ai sẽ là người dùng sớm: DSPy coi GEPA là “công dân hạng nhất”, GitHub đã mở mã nguồn Mã nguồn GEPA đã được mở trên GitHub, và được tích hợp vào khung DSPy dưới dạng dspy.GEPA; đồng thời cũng được phát hành độc lập như một thư viện Python. Nhóm nghiên cứu có sự tham gia từ UC Berkeley, Stanford, Notre Dame, Anthropic; các tác giả luận văn gồm Matei Zaharia (đồng sáng lập Databricks, tác giả chính của DSPy) và Omar Khattab (tác giả chính của DSPy). Với cộng đồng nhà phát triển, GEPA đem đến một lời giải mới cho bài toán “có rất nhiều rollout nhưng không biết cách tận dụng”—đa số đội nhóm đã tích lũy hàng nghìn đến hàng vạn bản ghi chạy tác nhân để thực hiện nhiệm vụ, nhưng ngoài việc lật vài bản ghi khi xảy ra lỗi để tìm bug, họ lại không có phương pháp hệ thống để biến các bản ghi đó thành cải tiến mô hình. Điểm quan sát tiếp theo là GEPA sẽ được triển khai trong các workflow agentic ở doanh nghiệp như tự động hóa chăm sóc khách hàng hay tự sửa lỗi lập trình ở thực tế ra sao, và liệu sẽ có các bản triển khai GEPA tương đương ngoài khung DSPy hay không. Bài viết “Berkeley GEPA giải thích”: không cập nhật trọng số vẫn giúp AI học nhiệm vụ mới, với chi phí huấn luyện ít hơn 35 lần để thắng RL lần đầu tiên xuất hiện trên chuỗi tin ABMedia.
0
0
0
0
MeNews

MeNews

16 tiếng trước
ME News Tin tức, ngày 14 tháng 4 (UTC+8), theo theo dõi của 1M AI News, công ty khởi nghiệp môi trường huấn luyện học tăng cường Fleet đang đàm phán vòng gọi vốn mới, quy mô ít nhất 50 triệu USD, định giá sau đầu tư khoảng 750 triệu USD, tăng hơn bảy lần so với định giá dưới 100 triệu USD của vòng hạt giống. Bain Capital Ventures thuộc Bain Capital đang đàm phán dẫn đầu, Sequoia Capital, Menlo Ventures và SV Angel dự kiến cùng đầu tư theo. Fleet thành lập năm 2024, hoạt động cốt lõi là xây dựng môi trường huấn luyện học tăng cường (RL gym) cho phòng thí nghiệm AI: phát triển bản sao của các ứng dụng phổ biến như Salesforce, Excel, để mô hình học cách thao tác các phần mềm này trong đó. Công ty ban đầu tập trung vào dữ liệu huấn luyện cho các kịch bản trình duyệt và thao tác máy tính, sau đó mở rộng sang nhiều loại ứng dụng khác. Người sáng lập Nic Ouporov trước đây là kỹ sư sáng lập của công ty tự động hóa không mã Respell, Respell được Salesforce mua lại vào tháng 1 năm 2024. Động lực chính thúc đẩy vòng gọi vốn này là sự tăng trưởng bùng nổ về doanh thu: doanh thu hàng năm của Fleet từ khoảng 1 triệu USD vào cuối năm ngoái đã tăng lên hơn 60 triệu USD trong vài tuần gần đây (tính theo doanh thu của quý gần nhất nhân với bốn). Tuy nhiên, khả năng duy trì của loại tăng trưởng này còn nghi vấn. Trong vài tháng gần đây, nhu cầu về dữ liệu huấn luyện của các phòng thí nghiệm AI tăng mạnh, doanh số của nhiều công ty khởi nghiệp về dữ liệu và môi trường RL đều tăng vọt, phản ánh sự tăng trưởng theo chiều hướng tích cực. Theo thời gian, các phòng thí nghiệm có thể sẽ tập trung chi tiêu dữ liệu vào một số nhà cung cấp chính, dẫn đến khả năng một số công ty khởi nghiệp bị loại khỏi cuộc chơi. Đối thủ cạnh tranh của Fleet không chỉ gồm các nhà cung cấp môi trường RL cùng loại, mà còn bao gồm Mercor, Surge, Turing và các công ty truyền thống về gán nhãn dữ liệu, những công ty này đang bổ sung dịch vụ môi trường RL dựa trên hoạt động kinh doanh hiện tại của họ. (Nguồn: BlockBeats)
0
0
0
0
MeNews

MeNews

18 tiếng trước
ME Tin tức, ngày 14 tháng 4 (UTC+8), theo theo dõi của 1M AI News, công ty khởi nghiệp môi trường huấn luyện học tăng cường Fleet đang đàm phán vòng gọi vốn mới, quy mô ít nhất 50 triệu USD, định giá sau đầu tư khoảng 750 triệu USD, tăng hơn bảy lần so với mức định giá dưới 100 triệu USD của vòng hạt giống. Bain Capital Ventures thuộc Bain Capital đang đàm phán dẫn đầu, Sequoia Capital, Menlo Ventures và SV Angel dự kiến sẽ theo vòng. Fleet thành lập năm 2024, hoạt động cốt lõi là xây dựng môi trường huấn luyện học tăng cường (RL gym) cho các phòng thí nghiệm AI: phát triển các bản sao của các ứng dụng phổ biến như Salesforce, Excel, để mô hình học cách thao tác các phần mềm này trong đó. Công ty ban đầu tập trung vào dữ liệu huấn luyện cho các kịch bản trình duyệt và thao tác máy tính, sau đó mở rộng sang nhiều loại ứng dụng khác. Người sáng lập Nic Ouporov trước đây là kỹ sư sáng lập của công ty tự động hóa không mã Respell, Respell đã được Salesforce mua lại vào tháng 1 năm 2024. Động lực thúc đẩy vòng gọi vốn này là sự tăng trưởng bùng nổ về doanh thu: doanh thu hàng năm của Fleet từ khoảng 1 triệu USD vào cuối năm ngoái đã tăng lên hơn 60 triệu USD trong vài tuần gần đây (tính theo doanh thu của quý gần nhất nhân với bốn). Tuy nhiên, khả năng duy trì của mức tăng trưởng này còn nghi vấn. Trong vài tháng gần đây, các phòng thí nghiệm AI đã có nhu cầu dữ liệu huấn luyện tăng vọt, nhiều công ty khởi nghiệp về dữ liệu và môi trường RL đã ghi nhận doanh số tăng vọt, phản ánh sự tăng trưởng theo chiều hướng chung. Theo thời gian, các phòng thí nghiệm có thể sẽ tập trung chi tiêu dữ liệu vào một số nhà cung cấp chính, một số công ty khởi nghiệp có thể bị loại khỏi cuộc chơi. Đối thủ cạnh tranh của Fleet không chỉ gồm các nhà cung cấp môi trường RL cùng loại, mà còn bao gồm Mercor, Surge, Turing và các công ty chú trọng vào chú thích dữ liệu truyền thống, những công ty này đang bổ sung dịch vụ môi trường RL dựa trên hoạt động kinh doanh hiện tại của họ. (Nguồn: BlockBeats)
0
0
0
0