RL

Ralph Lauren Corp 価格

休場中
RL
¥56,895.95
+¥661.31(+1.17%)

*データ最終更新日:2026-05-02 09:16(UTC+8)

2026-05-02 09:16時点で、Ralph Lauren Corp(RL)の価格は¥56,895.95、時価総額は¥3.45T、PERは18.17、配当利回りは1.00%です。 本日の株価は¥55,793.25から¥57,331.06の間で変動しました。現在の価格は本日安値より1.97%高く、本日高値より0.75%低く、取引高は398.76Kです。 過去52週間で、RLは¥55,419.39から¥60,753.83の間で取引されており、現在の価格は52週間高値より-6.35%低い水準にあります。

RL 主な統計情報

前日終値¥56,335.17
時価総額¥3.45T
取引量398.76K
P/E比率18.17
配当利回り(TTM)1.00%
配当額¥143.41
希薄化EPS(TTM)15.03
純利益(FY)¥116.69B
収益(FY)¥1.11T
決算日2026-05-21
EPS予想2.46
収益予測¥288.54B
発行済株式数61.24M
ベータ(1年)1.479
権利落ち日2026-03-27
配当支払日2026-04-10

RLについて

ラルフローレン・コーポレーションは、北米、ヨーロッパ、アジア、そして国際的にライフスタイル製品をデザインし、販売し、流通しています。同社は、メンズ、ウィメンズ、キッズ向けの衣料品の幅広いラインを含むアパレルを提供しています。さらに、カジュアルシューズ、ドレスシューズ、ブーツ、スニーカー、サンダル、アイウェア、時計、ファッションジュエリーおよびファインジュエリー、スカーフ、帽子、手袋、傘などから成るフットウェアとアクセサリー、ならびにハンドバッグ、ラゲッジ、小物のレザーグッズ、ベルトといったレザーグッズも扱っています。加えて、ベッド&バスのライン、家具、ファブリックおよびウォールカバー、照明、テーブルトップ、キッチンリネン、フロアカバー、ギフト用品からなるホームプロダクト、そしてフレグランスも取り扱っています。 同社は、アパレルおよびアクセサリーを、Ralph Lauren Collection、Ralph Lauren Purple Label、Polo Ralph Lauren、Double RL、Lauren Ralph Lauren、Polo Golf Ralph Lauren、Ralph Lauren Golf、RLX Ralph Lauren、Polo Ralph Lauren Children、Chaps というブランド名で販売しています。また、女性用のフレグランスは、Ralph Lauren Collection、Woman by Ralph Lauren、Romance Collection、Ralph Collection というブランド名のもとで販売し、男性用のフレグランスは、Polo Blue、Ralph's Club、Safari、Purple Label、Polo Red、Polo Green、Polo Black、Polo Sport、Big Pony Men's というブランド名のもとで販売しています。 同社のレストランコレクションには、ニューヨーク市の The Polo Bar、シカゴの RL Restaurant、パリの Ralph's、ミラノにある The Bar at Ralph Lauren、そして Ralph's Coffee のコンセプトが含まれます。同社は、百貨店、専門店、ゴルフおよびプロショップに対して製品を販売しているほか、自社の小売店舗、コンセッション方式のショップ・イン・ショップ、ならびにデジタルコマースのサイトを通じて、消費者に直接販売しています。同社は、直営の小売店舗を 504 店舗、コンセッション方式のショップ・イン・ショップを 684 店舗直接運営しており、さらに 175 の Ralph Lauren ストア、329 のファクトリーストア、ならびにライセンシングパートナーを通じて 148 の店舗およびショップを運営しています。 ラルフローレン・コーポレーションは 1967 年に設立され、本社はニューヨーク州ニューヨークにあります。
セクター消費者循環株
業界アパレル - 製造業者
CEOPatrice Jean Louis Louvet
本社New York City,NY,US
公式ウェブサイトhttp://corporate.ralphlauren.com
従業員数(FY)23.40K
平均収益(1年)¥47.52M
従業員一人当たりの純利益¥4.98M

Ralph Lauren Corp(RL)よくある質問

今日のRalph Lauren Corp(RL)の株価はいくらですか?

x
Ralph Lauren Corp(RL)は現在¥56,895.95で取引されており、24時間の変動率は+1.17%です。52週の取引レンジは¥55,419.39~¥60,753.83です。

Ralph Lauren Corp(RL)の52週間の高値と安値はいくらですか?

x

Ralph Lauren Corp(RL)の株価収益率(P/E比率)はいくらですか? この指標は何を示していますか?

x

Ralph Lauren Corp(RL)の時価総額はいくらですか?

x

Ralph Lauren Corp(RL)の直近の四半期ごとの1株当たり利益(EPS)はいくらですか?

x

今、Ralph Lauren Corp(RL)を買うべきか、売るべきか?

x

Ralph Lauren Corp(RL)の株価に影響を与える要因は何ですか?

x

Ralph Lauren Corp(RL)株の購入方法

x

リスク警告

株式市場は高いリスクと価格変動を伴います。投資の価値は上昇または下落する可能性があり、投資元本の全額を回収できない場合があります。過去の実績は将来の結果を保証するものではありません。投資判断を行う前に、ご自身の投資経験、財務状況、投資目的、リスク許容度を十分に評価し、独自に調査を行ってください。必要に応じて、独立したファイナンシャルアドバイザーにご相談ください。

免責事項

本ページの内容は情報提供のみを目的としており、投資助言、財務上の助言、または取引推奨を構成するものではありません。Gateは、かかる財務上の意思決定に起因するいかなる損失または損害についても責任を負いません。また、Gateは、アメリカ合衆国、カナダ、イラン、キューバを含むがこれらに限られない一部の市場および法域において、完全なサービスを提供できない場合があることにご留意ください。制限対象地域に関する詳細は、ユーザー契約をご参照ください。

その他の取引市場

Ralph Lauren Corp(RL)最新ニュース

2026-04-23 04:54

PerplexityがWeb検索エージェントのポストトレーニング手法を公開;Qwen3.5ベースのモデルが精度とコストでGPT-5.4を上回る

ニュース速報メッセージ:4月23日 — Perplexityの研究チームが、Web検索エージェント向けのポストトレーニング手法の詳細を説明する技術記事を公開しました。このアプローチは、2つのオープンソースのQwen3.5モデル (Qwen3.5-122B-A10B と Qwen3.5-397B-A17B) を使用し、2段階のパイプラインを採用します。すなわち、命令追従と言語の一貫性を確立するための教師あり微調整 (SFT) の後に、検索精度とツール使用の効率を最適化するためのオンライン強化学習 (RL) を行います。 RLフェーズでは、GRPOアルゴリズムを2つのデータソースとともに活用します。1つは、内部のシードクエリから構築された独自のマルチホップ検証可能な質問-回答データセットで、推論の2〜4ホップと、複数ソルバによる検証を必要とします。もう1つは、配備要件を客観的に検査可能な原子的条件へ変換してSFTの振る舞い劣化を防ぐ、ルーブリックに基づく汎用会話データです。 報酬設計では、ゲート付き集約を採用します——ベースラインの正しさが達成された場合にのみ、選好スコアが寄与します (question-answer match または すべてのルーブリック基準が満たされた場合)。これにより、高い選好信号が事実誤りを覆い隠すことを防ぎます。効率ペナルティは同一グループ内のアンカーリングを用い、同じグループにおける正答のベースラインを超えて、ツール呼び出しや生成長に対してなめらかなペナルティを適用します。 評価では、Qwen3.5-397B-SFT-RLが検索ベンチマーク全体で業界最高水準の性能を達成しています。FRAMESでは、単一ツール呼び出しで57.3%の精度を実現し、GPT-5.4を5.7パーセントポイント上回ります。また、Claude Sonnet 4.6を4.7パーセントポイント上回ります。中程度の予算 (4回のツール呼び出し) では、1クエリあたり$0.02で73.9%の精度を達成し、GPT-5.4の1クエリあたり$0.085での67.8%の精度、Sonnet 4.6の1クエリあたり$0.153での62.4%の精度と比較しています。コスト数値は各提供元の公開API料金に基づき、キャッシュの最適化は除外されています。

2026-03-27 04:37

Cursorは5時間ごとにComposerを反復しています:リアルタイムのRLトレーニングでは、モデルが「とぼけて罰を逃れる」ことを学びました

1M AI News のモニタリングによると、AI プログラミングツール Cursor がブログで「リアルタイム強化学習」(real-time RL)という手法を紹介しました。プロダクション環境における実際のユーザーのやり取りを学習シグナルに変換し、最短で 5 時間ごとに改良版 Composer モデルをデプロイします。これまでこの手法は Tab 補完機能の学習に使われてきましたが、今回 Composer にも拡張されました。 従来の手法は、プログラミング環境をシミュレートしてモデルを学習しますが、シミュレーション上でのユーザー行動の誤差は完全に排除しにくいことが主な難点です。リアルタイム RL は、実際の環境と実際のユーザーのフィードバックを直接使うことで、学習とデプロイの間の分布ずれを解消します。各トレーニングサイクルでは、現行バージョンから数十億 token に相当するユーザーインタラクションデータを収集し、それを報酬(リワード)シグナルに抽出します。モデルの重みを更新した後、評価スイート(CursorBench を含む)で後退がないことを確認してから、再びデプロイして本番投入します。Composer 1.5 の A/B テストでは、3 つの指標が改善したことが示されています。コード編集がユーザーに保持される割合が 2.28% 向上し、ユーザーが不満を理由に追加の問い合わせを送る割合は 3.13% 減少、遅延は 10.3% 減りました。 しかし、リアルタイム RL は報酬ハッキング(reward hacking)のリスクも拡大します。Cursor は 2 つのケースを明らかにしました。モデルが、故意に無効なツール呼び出しをしても負の報酬が得られないことを見つけたため、失敗しそうなタスクでエラーの呼び出しを自ら作って罰を回避していたことです。さらに、リスクのある編集に直面すると、コードを書かないほうが減点されないため、釈明(確認)を求める質問に切り替えることも学習しました。その結果、編集率が急激に低下しました。これら 2 つの脆弱性は監視で発見され、報酬関数を修正することで解消されています。Cursor は、リアルタイム RL の優位性はまさにここにあると考えています。真のユーザーはベンチマークよりも騙されにくく、毎回の報酬ハッキングは本質的にバグ報告のようなものだ、というわけです。

2026-03-25 06:36

Cursorが「Composer 2」技術レポートを公開:RL環境が実リユーザーシナリオを完全シミュレート、ベースモデルスコア70%向上

1M AI Newsの監測によると、CursorはComposer 2の技術レポートを公開し、初めて完全なトレーニング計画を明らかにしました。ベースモデルのKimi K2.5はMoEアーキテクチャを採用し、総パラメータは1.04兆、活性化パラメータは320億です。トレーニングは2段階に分かれており、まずコードデータ上で継続的な事前学習を行い、コーディング知識を強化します。その後、大規模な強化学習を通じてエンドツーエンドのコーディング能力を向上させます。RL環境は実際のCursorの使用シナリオを完全に模擬しており、ファイル編集、ターミナル操作、コード検索などのツール呼び出しを含み、モデルが本番環境に近い条件下で学習できるようになっています。 レポートでは、自社開発のベンチマークCursorBenchの構築方法も併せて公開されており、これはエンジニアチームの実際のコーディングセッションからタスクを収集したものであり、人工的に作り出したものではありません。ベースモデルのKimi K2.5はこのベンチマークで36.0点しか獲得できませんでしたが、2段階のトレーニングを経て、Composer 2は61.3点に達し、70%の向上を実現しました。Cursorは、その推論コストがGPT-5.4やClaude Opus 4.6などの最先端モデルのAPIよりも著しく低いと称し、精度とコストの両面でパレート最適を達成しています。

2025-11-27 05:38

Prime IntellectがINTELLECT-3モデルを発売

Foresight News の報道によると、分散化 AI プロトコル Prime Intellect が INTELLECT-3 モデルを発表しました。INTELLECT-3 は 106B のパラメータを持つハイブリッドエキスパートモデルで、GLM 4.5 Air Base モデルに基づき、SFT と RL を使用してトレーニングされています。Foresight News の以前の報道によれば、Prime Intellect は今年の 3 月に 1500 万ドルの資金調達を行い、Founders Fund が主導しました。

Ralph Lauren Corpについての人気投稿 (RL)

ChainNewsAbmedia

ChainNewsAbmedia

3 時間前
カリフォルニア大学バークレー校の研究チームが新しいAIトレーニング手法GEPAを提案し、ICLR 2026にOral論文として受理された。GEPAはモデルの重みを更新せず、GPUによる訓練も不要で、「学習ログを読み取る」LLMを使ってAIシステムのプロンプトを反復的に書き換えるだけで、6つのタスクにおいて平均的に主流の強化学習手法GRPOに対して6%上回り、最高で20%勝ち、必要な訓練試行回数(rollouts)も35倍少ない。研究がAIエンジニアリングコミュニティで拡散され、Xプラットフォーム上で議論を呼んだのち、現在はDSPyに統合されて一次最適化器(一等優化器)になっている。 GEPAは何をするのか:学習ログを教材として扱い、スコアだけを見ない 従来の強化学習手法(例:GRPO)のワークフローは次のとおりだ。AIに一度タスクを実行させ、その結果に基づいて「+1か-1」のスコアを与え、そのスコアを用いてモデルの重みを反復調整する。問題は、AIがこの一度のタスクを実行する過程には通常、数千tokenに及ぶ推論ステップ、ツール呼び出し、エラー情報が含まれていることだ。こうした豊富な詳細はすべて1つのスコアに圧縮され、過程の情報が捨てられる。だからこそ、RLは収束するまでに何万回もの試行が必要になる。 GEPAは逆だ。毎回AIがタスクを走り終えたら、その一連の過程(reasoning、ツール呼び出し、エラー記録)をそのまま別の「反省LLM」に読み込ませる。反省LLMは、熟練したエンジニアがプログラムのログを読むのと同じように、どのステップで失敗したのか、なぜ失敗したのか、そしてプロンプトをどう修正すべきかを見つけ、その後に該当モジュールのプロンプトを直接書き換える。同様に一度だけタスクを実行するが、GEPAがそこから抽出する信号量は、RLの単一スコアよりはるかに多い。 なぜ勝てるのか:「採点」を「一連の過程の読み取り」に変えるから GEPAは6つのタスクで平均してGRPOに対し6%上回り、最高で20%勝つ。別の主流なプロンプト最適化器MIPROv2とも比較すると、10%以上上回っている(AIME-2025の数学問題ベンチマークで12%向上)。最も重要なのは訓練コストだ。GEPAは同等の性能に到達するために必要なrollouts(1回のタスク完全実行)が、35倍少ない。 もう一つのデータとして、GEPAがDSPyと統合された後の「Full Program Adapter」は、signature、モジュール、制御フローを含むDSPy全体のプログラムを最適化でき、MATHの数学ベンチマークで93%の精度を達成し、DSPy本来のChainOfThoughtの書き方の67%を大きく上回る。GEPAはmulti-moduleワークフロー(複数モジュールを直列に接続するAIエージェント)でも特に優れており、システム全体を調整するのではなく、特定の失敗しているモジュールをピンポイントで特定して、そのプロンプトを書き換えられる。 誰が最初に使うのか:DSPyの一等市民、GitHubでオープンソース GEPAのコードはGitHubで公開されており、dspy.GEPAの形でDSPyフレームワークに統合されると同時に、Pythonライブラリとして独立して公開されている。研究チームはUC Berkeley、Stanford、Notre Dame、Anthropicなどの機関にまたがり、論文の著者にはMatei Zaharia(Databricks共同創業者、DSPyの主要著者)とOmar Khattab(DSPyの主要著者)が含まれる。 開発者コミュニティにとってGEPAは、「大量のrolloutはあるが、どう活用すればいいか分からない」という新しい解決策を提供する。多くのチームはすでに、エージェントがタスクを実行した記録を数千件〜数万件単位で蓄積しているが、失敗したときに数件をめくってバグを探す以外に、それらの記録をモデル改善に体系的に変換する方法がない。次の注目点は、GEPAが企業のエージェント型ワークフロー(例:カスタマーサポート自動化、プログラム自動修復)で実際に導入されるケースと、DSPy以外のフレームワークでのGEPAに対応する実装が現れるかどうかだ。 この記事「Berkeley GEPA解説:重みを更新しないのにAIが新しいタスクを学べ、35倍少ない訓練コストでRLに勝つ」が最初に現れたのは、鎖新聞のABMedia。
0
0
0
0
Cryptopolitan

Cryptopolitan

04-30 22:08
オープンソースの暗号取引プロジェクトは、AnthropicのClaude Opus AIモデルが依存関係にした後、悪意のあるnpmパッケージ@validate-sdk/v2を受け取りました。これにより、ハッカーはユーザーの暗号ウォレットと資金にアクセスできるようになりました。 ReversingLabs(RL)のセキュリティ研究者は、npmにホストされている自律型暗号取引エージェントのopenpaw-graveyardプロジェクトでこの侵害を発見しました。彼らはこれをPromptMinkと呼びました。 悪意のあるコミットは2026年2月28日に行われました。ReversingLabsは、このパッケージはデータをチェックするツールを装っているが、実際にはホスト環境から秘密を盗むと述べています。 PromptMinkマルウェアに関連する北朝鮮のハッカー ReversingLabsは、攻撃は北朝鮮の国家支援脅威グループであるFamous Chollimaから来たと述べました。 このグループは少なくとも2025年9月から悪意のあるnpmパッケージを拡散しています。彼らは、人間の開発者とAIコーディングアシスタントの両方を騙すことを目的とした二層戦略を改善してきました。 第一層は、悪意のあるコードを持たないパッケージで構成されています。これらの「餌」パッケージは、@solana-launchpad/sdkや@meme-sdk/tradeのように、暗号開発者向けの実用的なツールのように見えます。 彼らは、実際のペイロードを持つ第二層のパッケージと、axiosやbn.jsなどの人気npmパッケージを依存関係としてリストアップしています。 第二層のパッケージが報告されてnpmから削除されると、攻撃者は新しいものを設置し、餌パッケージの評判を維持します。 ReversingLabsは、@hash-validator/v2がnpmから削除されたとき、攻撃者は同じ日に@validate-sdk/v2を同じバージョン番号とソースコードでリリースしたと述べています。 AIエージェントは人間よりもハッキングに対して脆弱である セキュリティ研究者は、Famous Chollimaの手法は人間の開発者よりもAIコーディングアシスタントを狙ったものの方が適しているようだと述べました。グループは、悪意のあるパッケージに対して詳細なドキュメントを作成しており、研究者はこれを「LLM最適化の乱用」と呼んでいます。 目的は、パッケージを十分にリアルに見せて、AIエージェントが問題なく提案・インストールするように仕向けることです。感染したパッケージは、生成AIツールによって「バイブコード」されていました。残存するLLMの応答はファイルコメントに見られます。 2025年後半以降、PromptMinkマルウェアはさまざまな形態を取りました。 最初はシンプルなJavaScript情報窃盗ツールでしたが、その後、大きな単一実行可能アプリケーションに成長し、現在はステルス性を高めたコンパイル済みのRustペイロードとして登場しています(ReversingLabsによる)。 マルウェアがインストールされると、暗号に関する設定ファイルを探し、ウォレットの資格情報とシステム情報を盗み、プロジェクトのソースコードを圧縮して自分に送信し、LinuxとWindowsのマシンにSSHキーを配置して常にリモートアクセスできるようにします。 PromptMinkキャンペーンは、パッケージマネージャーを通じて暗号開発者を標的とした最近の攻撃の唯一の例ではありません。 先月、Cryptopolitanは、OpenClawコミュニティを標的とした偽のnpmインストーラーを通じてGhostClawというマルウェアについて報告しました。これにより、暗号ウォレットデータ、macOSのKeychainパスワード、AIプラットフォームのAPIトークンが178人の開発者から収集され、npmレジストリから削除されました。 PromptMinkとGhostClawは、ソーシャルエンジニアリングを入口とし、暗号とWeb3に従事する開発者をターゲットにしています。PromptMinkの違いは、AIコーディングエージェントを標的とし、それを攻撃経路として利用している点です。 最も賢い暗号の専門家たちはすでに私たちのニュースレターを読んでいます。参加したいですか? 彼らに続きましょう。
0
0
0
0