2025年10月6日、サンフランシスコで開催された「OpenAI DevDay 2025」は、AIが“ツール”から“OS”へと変わる節目となりました。ChatGPTがアプリを内包し、動画生成Sora 2やAgentKitなど新基軸を次々と公開。これまでの「使うAI」から「共に動くAI」へ──。
本記事では、その発表内容と背景を整理しながら、ChatGPTがどのように私たちの日常や仕事を“統合する存在”へ進化しているのかを読み解きます。
目次
🧩 Apps in ChatGPT:チャットがアプリの“母艦”になる
2025年のDevDayで最も話題を集めたのが、この「Apps in ChatGPT」でした。
従来、私たちはSpotifyで音楽を再生し、Canvaでデザインを作り、Booking.comで旅行を予約する──それぞれのアプリを個別に開いていました。けれど今回、ChatGPTの中でこれらの操作がシームレスに行えるようになったのです。
OpenAIは同時に「Apps SDK(ソフトウェア開発キット)」を公開。開発者は自分のアプリをChatGPT内に組み込み、UIやデータを会話の中で動かせるようになります。つまり、ChatGPTがアプリのプラットフォームとして機能し始めた、ということです。
この変化は、検索や作業の流れを根底から変えます。
これまで「アプリを開く」ことが前提だった体験が、「チャットの延長線で使う」方向へ移行する。たとえば「プレゼン資料を作って」と話しかければ、ChatGPTがCanvaを呼び出し、デザインを生成。編集もそのまま対話内で完結します。
この一体化が意味するのは──ChatGPTが“作業の入り口”から“作業そのもの”へと昇格したということ。
2025年、AIは単なるアシスタントではなく、あらゆるアプリを包み込む「母艦」へと変わりつつあります。
🤖 AgentKit:行動するAIエージェントの誕生
もうひとつの注目は「AgentKit」の登場です。
これまでのChatGPTは、ユーザーの問いに答える“受動的AI”でした。ですがAgentKitの導入により、AIが自ら動き、タスクを実行する存在へ進化します。
AgentKitは、エージェントの行動・UI・評価・連携を統合的に設計できる開発基盤です。
たとえば「メールの整理→要約→カレンダー登録→通知送信」という一連の作業を、一度の会話で実行可能にする。複数アプリをまたぐ処理も“対話ワークフロー”として自動化できます。
さらに、開発者は独自の“行動パターン”を設計し、ChatGPTの中に常駐させることも可能です。
この仕組みが示す未来は、「AIに頼む」から「AIと働く」へのシフト。
企業の顧客対応、メディアの自動更新、クリエイターの投稿スケジュールなど──
日常の“ルーチン”をAIが学び、再現し、改善していく世界が現実味を帯びてきました。
OpenAIはこの動きを「Agent Platform」として整備中。
ChatGPTがユーザーの“作業同僚”になる構想が、ついに実装段階へ入りました。
🎬 Sora 2:映像を“言葉で作る”時代へ
動画生成AI「Sora 2」は、今回のDevDayで最もクリエイティブ層を震わせた発表でした。
Soraはもともと、テキストから高精細な映像を生成できるAIモデルとして登場しましたが、今回のバージョン2では構図制御・音声同期・演出指定といった機能が大幅に強化されています。
特筆すべきは、API対応が正式にアナウンスされた点です。
これにより、Soraの映像生成を自社アプリや制作ツールに直接組み込み、対話で映像を生成するワークフローが可能になります。
「一枚の画像から、そのまま動くシーンをつくる」「キャラクターの仕草や表情を指定して短編映像にする」といった、物語表現の自動化が一気に現実化しました。
Sora 2 Proでは、リアルな質感と映画的ライティングを再現する新アルゴリズムを採用。
生成された映像には、カメラワーク・被写界深度・光の粒子感までが反映され、AI動画の“合成っぽさ”をほぼ感じさせません。
一方で、著作権やトレーニングデータへの懸念も引き続き指摘されています。
OpenAIは「使用データのトレーサビリティを明示する」と説明していますが、
「AIが映像産業にどこまで踏み込むか」は、今後の議論の焦点となるでしょう。
創作の現場では、Sora 2が“映像生成ツール”ではなく“詩を映すカメラ”として受け取られ始めています。
言葉で指示し、物語をそのまま動かす──そんな未来が、もう目の前にあります。
💻 GPT-5 Codex:AIが「書く手」から「共に書く頭」へ
開発者向け発表の中で静かに熱を帯びたのが、GPT-5 Codex の一般提供開始です。
コード補完専用モデルとして知られてきたCodexが、ついにGPT-5世代へ進化。
理解力と文脈保持力が飛躍し、自然言語とプログラム言語を“ほぼ同一レイヤー”で扱えるようになりました。
Slack や Notion など主要ワークスペースと直接連携し、
チーム全体のやり取りを読み取って「仕様化 → コード化 → 実装 → 要約」までを一貫サポート。
単なる自動補完ではなく、対話で意図を共有しながら設計を共創するAIエンジニアとして動きます。
特に注目されるのが、Codex SDK と呼ばれる開発キット。
これを使えば、企業や個人が自前のワークスペースに“開発専用AI”を常駐させ、
リポジトリ更新・デプロイ・テスト結果分析まで自動化できます。
技術的には、GPT-5の推論モジュールに
「長文メモリ」「マルチファイル理解」「安全な権限実行」などが統合され、
エンジニアリング領域の“最後の手動部分”を埋める段階に入りました。
開発の現場では、AIが人の代わりに書くのではなく、隣で考える相棒になりつつあります。
コーディングが“入力作業”から“会話による設計”へ――
GPT-5 Codexは、その静かな革命の中心に立っています。
🛒 Agentic Commerce:チャットで“買える”時代のはじまり
2025年のDevDayでは、「Agentic Commerce Protocol(ACP)」という聞き慣れない名前の発表がありました。
これは、ChatGPTの中で商品を探し、比較し、そのまま購入まで完結できる仕組みです。
たとえば、「来月の展示会用に黒いスーツを探して」と話しかけると、ChatGPTがEtsyやShopifyなどの連携ストアから候補を提案。
素材やサイズ感を自然文で比較しながら、気に入ったものをその場で“チェックアウト”できる。
いわば、AIがパーソナルバイヤーとして機能する新しいコマース体験です。
裏側で動いているのが、ACP──Agentic Commerce Protocol。
商品フィード、在庫API、決済トークン、セキュリティ署名といったプロトコルが統合され、
ChatGPTが「安全に購入を代理できる」仕組みを保証しています。
この機能はまだ一部地域でのテスト段階ですが、
Etsyでは既にChatGPT上での即時購入が始まり、Shopifyとの連携も年内予定とされています。
UI的にも、これまでのリンク遷移ではなく、
チャットの流れの中に「カート」「在庫」「配送」情報が自然に組み込まれる。
会話の延長で購買が完結する──それは、検索・比較・購入の境界線が消えるUXを意味します。
広告ではなく、提案。
クリックではなく、対話。
ACPは、AI時代の「信頼できる販売員」をどうデザインするかという問いに、最初の答えを提示しました。
⚙️ AMDとの提携:AIの“呼吸”を支える計算資源戦略
AIの進化を支えているのは、言葉やコードだけではありません。
その裏には、膨大な**計算資源(Compute)**という“血流”があります。
DevDay 2025では、OpenAIが半導体大手 AMD との長期パートナーシップを正式に発表。
これにより、最大6ギガワット(GW)規模のGPU供給を受ける大型インフラ計画が明らかになりました。
第1フェーズは2026年後半、AMDの新型「MI450」GPUを中心に稼働開始。
これまでNVIDIAに偏っていた供給網を多層化し、モデル開発と運用の安定性を確保する狙いがあります。
特にSora 2のような動画生成や、長文推論に対応するGPT-5 Codexなど、
“重量級処理”を担うモデル群には、莫大な演算力が欠かせません。
さらに、OpenAIはこの提携によってエネルギー効率と持続可能性にも踏み込む方針を示しました。
電力効率の高いデータセンター設計をAMDと共同で進め、
将来的には再生可能エネルギー比率の高いクラウド運用を目指すとしています。
これらは表面的には技術ニュースですが、裏側の意味はもっと大きい。
AIを「常に動かし続ける」ことは、もはや国家規模のインフラ設計に近い。
ChatGPTやSoraの快適な応答速度の裏で、何万ものGPUが呼吸のように働いている──
DevDayの発表は、その“見えない呼吸”をどう確保するかという宣言でもありました。
💬 AMAに見る“開発者の本音”──透明性と自律性のはざまで
DevDayの熱狂が冷めやらぬ中、OpenAIは公式RedditでAMA(Ask Me Anything)を開催しました。
ここでは、ユーザーや開発者が率直な質問を投げかけ、運営側がそれに答える形式。
しかし、そこで浮かび上がったのは新機能への期待だけではなく、制御と自由のバランスに対する深い不安でした。
最も多かったのは、「モデルの仕様変更が突然行われる」という懸念。
一部ユーザーは、gpt-5-chat-latestが告知なしに更新され、出力傾向や安全フィルターが変化したと指摘しました。
「自分たちのアプリが想定外に動かなくなった」との声も少なくありません。
また、「地域制限やアクセス格差」についての質問も多く寄せられました。
「なぜ自分の国ではFigmaやSpotifyがまだ使えないのか」「どの機能が段階的に開放されるのか」といった不満。
AIがグローバルツールである一方で、規制や契約の壁が依然として残ることが浮き彫りになりました。
さらに議論を呼んだのが、モデレーション(検閲)への不信です。
「投稿が理由もなく削除された」「開発者モードでも制限が強すぎる」といった声が相次ぎ、
透明性を求める意見が上位コメントとして多く支持されました。
OpenAI側は「安全性と自由度の両立を模索中」と回答。
ただし、具体的なロードマップやルール変更の可視化には至っていません。
このAMAは、AIが“公共の場”になった現実を象徴しています。
ユーザーはもう受け取る側ではなく、サービスの共同制作者になりつつある。
DevDayの華やかな舞台裏で、AI時代の“信頼の設計図”がまだ書きかけであることを、多くの人が感じ取ったのです。
🌏 総括:ChatGPTは“OS”へ、AIは舞台そのものになる
DevDay 2025で示された方向性は、単なる技術の進化ではありません。
それは、AIが私たちの生活や創作の「基盤」になる未来の予告でした。
Apps in ChatGPT が“アプリの母艦”として会話空間を拡張し、
AgentKit がAIに行動力を与え、
Sora 2 が言葉を映像へ変換し、
Codex が開発現場を共創の場に変え、
ACP が消費行動を対話に変える。
これらを支えるのが、AMDとの提携による膨大な計算資源──
まるでAIが自らの「呼吸器官」を持ち始めたような構造です。
一方、AMAで見えたのは、その急成長を前にした倫理と透明性の遅れ。
誰がAIを制御するのか、どこまで自由を残すのか。
技術だけが先に走る時代に、私たち人間がどう共存するかが問われています。
しかし、それでも確かに言えるのは、
AIはもはや「ツール」ではなく、世界を動かす“舞台装置”そのものになったということ。
ChatGPTというひとつの対話空間の中で、作る・考える・動かす・買う──
そのすべてが連動する時代が、もう始まっています。
2025年のDevDayは、その“はじまりの日”として長く記憶されるでしょう。
🔗 参考リンクとFAQ:DevDay 2025をさらに深掘りする
🔗 参考リンク
- OpenAI公式アナウンス(DevDay 2025)
https://openai.com/index/announcing-devday-2025
→ イベント概要とキーノート内容をまとめた一次情報。 - TechCrunch:OpenAI launches apps inside ChatGPT
https://techcrunch.com/2025/10/06/openai-launches-apps-inside-of-chatgpt
→ 「Apps SDK」や初期対応アプリの解説。 - Wired:OpenAI’s DevDay and the rise of agentic AI
https://www.wired.com/story/openai-dev-day-sam-altman-chatgpt-apps
→ Altman × Jony Ive 対談、デバイス構想にも触れている。 - OpenAI Blog:Sora 2 System Card
https://openai.com/research/sora
→ 動画生成モデルの仕組みと利用ガイド。 - Reddit AMA:OpenAI DevDay Launch Discussion
https://www.reddit.com/r/OpenAI/comments/1o1j23g/ama_on_our_devday_launches/
→ 開発者・ユーザーからの質疑応答。制御・透明性に関する議論が中心。
❓ DevDay 2025 FAQ
Q1|今回の発表で一番の目玉は?
A|「Apps in ChatGPT」です。チャット内でSpotify・Canva・Figmaなどが動くことで、ChatGPTが実質的に“OS”化しました。開発者が独自アプリを組み込めるApps SDKも公開されています。
Q2|Sora 2はもう誰でも使える?
A|現時点では一部アプリ(sora.com / iOS)で先行提供中。API版は開発者プレビュー段階で、一般向け提供は今後数カ月以内と予告されています。
Q3|AgentKitとAppsの違いは?
A|Appsは「ChatGPT内で動くアプリ」、AgentKitは「ChatGPTの外でも動けるAIエージェント」。前者がUI統合、後者が行動自動化に強い立ち位置です。
Q4|発表された機能は日本でも使える?
A|多くは段階的展開です。SpotifyやCanvaなどの連携は一部地域のみ。Apps SDKは英語ドキュメントが中心で、正式な日本語展開は未定です。
Q5|懸念されている“検閲”や“仕様変更”問題は?
A|AMAで最も議論されたテーマです。OpenAIは「安全性と自由度の両立を進める」と回答しましたが、仕様変更の透明化や地域差への対応は今後の課題として残っています。
🧭 DevDay 2025 は「AIがどこへ向かうか」を示す羅針盤。
新機能の体験はもちろん、“その先にある設計思想”を読むことが、
これからのAI活用の本質になるでしょう。