2025/12/27 北京 /PRNewswire/ — 12月22日、Z.aiはGLM大規模言語モデルファミリーの最新版であるGLM-4.7をリリースしました。マルチ処理に対応するよう設計され2025/12/27 北京 /PRNewswire/ — 12月22日、Z.aiはGLM大規模言語モデルファミリーの最新版であるGLM-4.7をリリースしました。マルチ処理に対応するよう設計され

Z.ai、実際の開発環境向けに設計されたGLM-4.7をリリースし、「中国のOpenAI」としての地位を確固たるものに

北京2025年12月27日 /PRNewswire/ — 12月22日、Z.aiはGLM大規模言語モデルファミリーの最新版であるGLM-4.7をリリースしました。GLM-4.7は、本番環境でのマルチステップタスクを処理するように設計されており、長いタスクサイクル、頻繁なツール使用、および安定性と一貫性へのより高い要求を伴う開発環境を対象としています。

GLM-4.6をベースに複雑な開発に焦点を当てた構築

GLM-4.7は、開発者向けに改善された機能を備えたGLM-4.6からの前進です。コーディングワークフロー、複雑な推論、エージェント型実行の強力なサポートを特徴としており、長いマルチステップタスクにおいても、モデルにより大きな一貫性を与え、外部ツールとの対話時により安定した動作を実現します。開発者にとって、これはGLM-4.7が日常的な本番作業のための信頼できるツールであることを意味します。

改善は技術的パフォーマンスを超えて広がります。GLM-4.7は、会話、執筆、ロールプレイングシナリオにおいて自然で魅力的な出力も生成し、GLMを一貫性のあるオープンソースシステムへと進化させます。 

実際の開発ワークフロー向けに設計

モデル品質への期待は、開発者にとって中心的な焦点となっています。プロンプトや計画に従うことに加えて、モデルは適切なツールを呼び出し、長いマルチステップタスク全体で一貫性を保つ必要があります。タスクサイクルが長くなるにつれて、わずかなエラーでも広範囲に影響を及ぼし、デバッグコストを押し上げ、配信スケジュールを延長する可能性があります。GLM-4.7は、これらの実世界の制約を念頭に置いてトレーニングおよび評価されました。

多言語プログラミングおよびターミナルベースのエージェント環境において、モデルは拡張されたワークフロー全体でより高い安定性を示します。Claude Code、Cline、Roo Code、TRAE、Kilo Codeなど、広く使用されているコーディングフレームワーク内で「考えてから行動する」実行パターンをすでにサポートしており、開発者が実際に複雑なタスクに取り組む方法とより密接に連携しています。

Z.aiは、Claude Codeベースの開発環境で100の実際のプログラミングタスクについてGLM-4.7を評価し、フロントエンド、バックエンド、指示追従シナリオをカバーしました。GLM-4.6と比較して、新しいモデルはタスク完了率と動作の一貫性において明確な向上を提供します。これにより、繰り返しのプロンプト調整の必要性が減り、開発者はより直接的に配信に集中できます。その優れた結果により、GLM-4.7はGLM Coding Planのデフォルトモデルとして選択されました。

ツール使用とコーディングベンチマーク全体での信頼性の高いパフォーマンス

さまざまなコード生成およびツール使用ベンチマークにわたって、GLM-4.7は競争力のある総合パフォーマンスを提供します。Webベースのタスクに焦点を当てたベンチマークであるBrowseCompでは、モデルは67.5のスコアを記録します。インタラクティブなツール使用を評価するτ²-Benchでは、GLM-4.7は87.4のスコアを達成し、これまでに公開されているオープンソースモデルの中で最高の報告結果となっています。

SWE-bench Verified、LiveCodeBench v6、Terminal Bench 2.0を含む主要なプログラミングベンチマークにおいて、GLM-4.7はClaude Sonnet 4.5のレベル以上のパフォーマンスを発揮し、複数の次元でGLM-4.6と比較して明確な改善を示しています。

100万人以上の参加者を持つ大規模なブラインド評価プラットフォームであるCode Arenaでは、GLM-4.7はオープンソースモデルの中で1位にランクされ、中国で開発されたモデルの中でもトップの地位を保持しています。

より予測可能で制御可能な推論

GLM-4.7は、長時間実行される複雑なタスクでモデルがどのように推論するかについて、より細かい制御を導入します。人工知能システムが本番ワークフローに統合されるにつれて、このような機能は開発者にとって焦点が高まっています。GLM-4.7は、複数のインタラクションにわたって推論の一貫性を維持しながら、タスクの複雑さに応じて推論の深さを調整することができます。これにより、エージェントシステム内でのその動作は時間の経過とともにより予測可能になります。さらに、Z.aiはGLMシリーズを開発および改良しながら、AIを大規模に展開する新しい方法を積極的に探求しています。

フロントエンド生成と一般機能の改善

機能的な正確性を超えて、GLM-4.7は視覚構造と確立されたフロントエンドデザイン規則に対する顕著により成熟した理解を示しています。Webページやプレゼンテーション資料の生成などのタスクでは、モデルはより一貫した間隔、より明確な階層、およびより一貫性のあるスタイリングを持つレイアウトを生成する傾向があり、下流での手動修正の必要性を減らします。

同時に、会話品質と執筆スタイルの改善により、モデルのユースケースの範囲が拡大しました。これらの変更により、GLM-4.7はクリエイティブでインタラクティブなアプリケーションにより適したものになります。

エコシステム統合とオープンアクセス

GLM-4.7はBigModel.cn APIを介して利用可能であり、Z.aiフルスタック開発環境に完全に統合されています。グローバルエコシステム全体の開発者とパートナーは、TRAE、Cerebras、YouWare、Vercel、OpenRouter、CodeBuddyなどのプラットフォームを含むツールにGLM Coding Planをすでに組み込んでいます。開発者ツール、インフラストラクチャプロバイダー、アプリケーションプラットフォーム全体での採用は、GLM-4.7がより広範なエンジニアリングおよび製品使用に使用されていることを示唆しています。

Z.ai 「世界初の大規模モデル上場企業」になることを目指す

Z.aiは、香港証券取引所への上場により、世界初の上場大規模モデル企業になることを目指すと発表しました。この予定されたIPOは、資本市場がAGI基盤モデルの独立開発をコアビジネスとする上場企業を歓迎する初めてのケースとなります。

2022年、2023年、2024年に、Z.aiはそれぞれ5,740万人民元(約820万米ドル)、1億2,450万人民元(約1,770万米ドル)、3億1,240万人民元(約4,450万米ドル)の収益を上げました。2022年から2024年にかけて、同社の年間複合成長率(CAGR)は130%に達しました。2025年上半期の収益は1億9,000万人民元(約2,700万米ドル)で、3年連続で収益を倍増させています。報告期間中、同社の大規模モデル関連事業が主要な成長ドライバーでした。

GLM-4.7の利用可能性

Coding Planのデフォルトモデル: https://z.ai/subscribe

今すぐお試しください: https://chat.z.ai/

重み: https://huggingface.co/zai-org/GLM-4.7

技術ブログ: https://z.ai/blog/glm-4.7

Z.aiについて

2019年に設立されたZ.aiは、清華大学の技術成果の商業化に端を発しています。そのチームは、中国で大規模モデル研究を開始したパイオニアです。Z.aiは、独自のGLM(一般言語モデル)事前トレーニングアーキテクチャを活用して、言語、コード、マルチモダリティ、インテリジェントエージェントをカバーするフルスタックモデルポートフォリオを構築しました。そのモデルは40以上の国産チップと互換性があり、技術ロードマップがグローバルトップティア標準と歩調を合わせている数少ない中国企業の1つとなっています。

Cision マルチメディアをダウンロードするには元のコンテンツをご覧ください:https://www.prnewswire.com/news-releases/zai-releases-glm-4-7-designed-for-real-world-development-environments-cementing-itself-as-chinas-openai-302649821.html

SOURCE Z.ai

市場の機会
Sleepless AI ロゴ
Sleepless AI価格(AI)
$0,03895
$0,03895$0,03895
+0,33%
USD
Sleepless AI (AI) ライブ価格チャート
免責事項:このサイトに転載されている記事は、公開プラットフォームから引用されており、情報提供のみを目的としています。MEXCの見解を必ずしも反映するものではありません。すべての権利は原著者に帰属します。コンテンツが第三者の権利を侵害していると思われる場合は、削除を依頼するために service@support.mexc.com までご連絡ください。MEXCは、コンテンツの正確性、完全性、適時性について一切保証せず、提供された情報に基づいて行われたいかなる行動についても責任を負いません。本コンテンツは、財務、法律、その他の専門的なアドバイスを構成するものではなく、MEXCによる推奨または支持と見なされるべきではありません。