AI Models

20 models Free & Paid Cập nhật: 7 hours trước

Gemma 4 26B A4B IT is an instruction-tuned Mixture-of-Experts (MoE) model from Google DeepMind. Despite 25.2B total parameters, only 3.8B activate per token during inference — delivering near-31B quality at a fraction of the compute cost. Supports multimodal input including…

による |Apr 2026 |262K コンテキスト |$0.1300/M入力 |$0.4000/M出力
262K トークン

Gemma 4 31B Instruct is Google DeepMind's 30.7B dense multimodal model supporting text and image input with text output. Features a 256K token context window, configurable thinking/reasoning mode, native function calling, and multilingual support across 140+ languages. Strong on coding,…

による |Apr 2026 |262K コンテキスト |$0.1400/M入力 |$0.4000/M出力
262K トークン

Qwen 3.6 Plus builds on a hybrid architecture that combines efficient linear attention with sparse mixture-of-experts routing, enabling strong scalability and high-performance inference. Compared to the 3.5 シリーズ, it delivers major gains in agentic coding, front-end development, and overall reasoning,…

による |Apr 2026 |1M コンテキスト |Miễn phí input |Miễn phí output
1M トークン

GLM-5V-Turbo is Z.ai’s first native multimodal agent foundation model, ビジョンベースのコーディングとエージェント駆動のタスク向けに構築. It natively handles image, ビデオ, そしてテキスト入力, excels at long-horizon planning, 複雑なコーディング, そしてタスクの実行, and works seamlessly with agents to complete…

による |Apr 2026 |203K コンテキスト |$1.20/M入力 |$4.00/M出力
203K トークン

Trinity Large Thinking は、Arce AI チームによる強力なオープンソース推論モデルです。. It shows strong performance in PinchBench, エージェントのワークロード, そして推論タスク. It is free in open claw for the first five days. 起動ビデオ:…

による |Apr 2026 |262K コンテキスト |$0.2200/M入力 |$0.8500/M出力
262K トークン

グロク 4.20 Multi-Agent is a variant of xAI’s Grok 4.20 designed for collaborative, エージェントベースのワークフロー. 複数のエージェントが並行して動作し、詳細な調査を実施します, 座標ツールの使用, and synthesize information across complex tasks. Reasoning effort behavior: - 低い / 中くらい:…

による |3月 2026 |2M コンテキスト |$2.00/M入力 |$6.00/M出力
2M トークン

グロク 4.20 is xAI's newest flagship model with industry-leading speed and agentic tool calling capabilities. It combines the lowest hallucination rate on the market with strict prompt adherance, delivering consistently precise and truthful responses. Reasoning can be enabled/disabled using the…

による |3月 2026 |2M コンテキスト |$2.00/M入力 |$6.00/M出力
2M トークン

Full-length songs are priced at $0.08 per song. Lyria 3 is Google's family of music generation models, available through the Gemini API. With Lyria 3, you can generate high-quality, 48kHz stereo audio from text prompts or from images. These models…

による |3月 2026 |1M コンテキスト |Miễn phí input |Miễn phí output
1M トークン

30 second duration clips are priced at $0.04 per clip. Lyria 3 is Google's family of music generation models, available through the Gemini API. With Lyria 3, you can generate high-quality, 48kHz stereo audio from text prompts or from images.…

による |3月 2026 |1M コンテキスト |Miễn phí input |Miễn phí output
1M トークン

KAT-Coder-Pro V2 is the latest high-performance model in KwaiKAT’s KAT-Coder series, designed for complex enterprise-grade software engineering and SaaS integration. It builds on the agentic coding strengths of earlier versions, with a focus on large-scale production environments, multi-system coordination, そして…

による |3月 2026 |256K コンテキスト |$0.3000/M入力 |$1.20/M出力
256K トークン

Reka Edge is an extremely efficient 7B multimodal vision-language model that accepts image/video+text inputs and generates text outputs. This model is optimized specifically to deliver industry-leading performance in image understanding, ビデオ分析, 物体検出, and agentic tool-use.

による |3月 2026 |16K コンテキスト |$0.1000/M入力 |$0.1000/M出力

MiMo-V2-Omni is a frontier omni-modal model that natively processes image, ビデオ, and audio inputs within a unified architecture. It combines strong multimodal perception with agentic capability - visual grounding, multi-step planning, tool use, and code execution - making it well-suited…

による |3月 2026 |262K コンテキスト |$0.4000/M入力 |$2.00/M出力
262K トークン

MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the…

による |3月 2026 |1M コンテキスト |$1.00/M入力 |$3.00/M出力
1M トークン

MiniMax-M2.7 is a next-generation large language model designed for autonomous, real-world productivity and continuous improvement. Built to actively participate in its own evolution, M2.7 は、マルチエージェントのコラボレーションを通じて高度なエージェント機能を統合します, enabling it to plan, 実行する, そして複雑なタスクを洗練させます…

による |3月 2026 |205K コンテキスト |$0.3000/M入力 |$1.20/M出力
205K トークン

GPT-5.4 nano は、GPT-5.4 ファミリの中で最も軽量でコスト効率の高いバージョンです。, スピードが重視される大量のタスク向けに最適化. テキストと画像の入力をサポートし、分類などの低遅延のユースケース向けに設計されています。, データ抽出, ランキング, and sub-agent…

による |3月 2026 |400K コンテキスト |$0.2000/M入力 |$1.25/M出力
400K トークン

GPT-5.4 mini は、GPT-5.4 のコア機能をさらに高速化します。, 高スループットのワークロード向けに最適化された、より効率的なモデル. 推論全体で強力なパフォーマンスを備えたテキストと画像の入力をサポートします, コーディング, and tool use, 大規模なシステムのレイテンシとコストを削減しながら…

による |3月 2026 |400K コンテキスト |$0.7500/M入力 |$4.50/M出力
400K トークン

Mistral Small 4 Mistral Small ファミリーの次のメジャー リリースです, unifying the capabilities of several flagship Mistral models into a single system. Magistral の強力な推論を組み合わせています, Pixtral からのマルチモーダルな理解, そしてエージェントコーディング機能…

による |3月 2026 |262K コンテキスト |$0.1500/M入力 |$0.6000/M出力
262K トークン

GLM-5 Turbo is a new model from Z.ai designed for fast inference and strong performance in agent-driven environments such as OpenClaw scenarios. It is deeply optimized for real-world agent workflows involving long execution chains, 複雑な命令の分解が改善された, 道具…

による |3月 2026 |203K コンテキスト |$1.20/M入力 |$4.00/M出力
203K トークン

NVIDIA ネモトロン 3 Super は 120B パラメータのオープンハイブリッド MoE モデルです, activating just 12B parameters for maximum compute efficiency and accuracy in complex multi-agent applications. Built on a hybrid Mamba-Transformer Mixture-of-Experts architecture with multi-token prediction (中期計画), it delivers over 50%…

による |3月 2026 |262K コンテキスト |Miễn phí input |Miễn phí output
262K トークン

NVIDIA ネモトロン 3 Super は 120B パラメータのオープンハイブリッド MoE モデルです, activating just 12B parameters for maximum compute efficiency and accuracy in complex multi-agent applications. Built on a hybrid Mamba-Transformer Mixture-of-Experts architecture with multi-token prediction (中期計画), it delivers over 50%…

による |3月 2026 |262K コンテキスト |$0.1000/M入力 |$0.5000/M出力
262K トークン