Groq API
Groq 高速推論API
フリーミアム
グローバル
🤖 AI・機械学習
初級
⭐ 注目
独自開発のLPU(Language Processing Unit)チップによる超高速AI推論を提供するクラウドAPI。Llama、Mistral、Gemmaなどのオープンソースモデルを驚異的な速度で実行可能。トークン/秒の生成速度でGPU推論の数倍〜数十倍のパフォーマンスを実現。OpenAI互換のChat Completions APIで利用でき、バッチAPI(50%割引)やプロンプトキャッシング(50%割引)にも対応。
82
人気スコア(100点満点)
LPUチップによる圧倒的な推論速度が話題を呼び急成長。無料ティアの提供もあり、特にリアルタイムAIアプリ開発者に支持されている
詳細分析
Groqは2016年設立のAIチップスタートアップ。LPU(Language Processing Unit)を独自開発し、GPU比で数倍〜数十倍の推論速度を実現。2024年以降、GroqCloudとしてAPI提供を本格化。
利用実績・指標
APIコール数
非公開
npm ダウンロード
N/A
GitHub Stars
N/A
主な利用企業・サービス
AIスタートアップリアルタイムAIアプリ開発者音声AIサービス
根拠・参照元
API仕様
認証方式
APIキー
レスポンス形式
JSON
レート制限
Free: RPM・TPMに制限あり。Developer: Freeの10倍。Enterprise: カスタム。組織レベルで適用
料金
無料ティア: レートリミット付きで無制限利用。Developerティア: 無料の10倍のレートリミット。モデルごとのトークン課金(従量制)
SDK
Python, JavaScript
ユースケース
リアルタイムチャットボット音声AIアシスタント低レイテンシーAIアプリバッチ処理コード生成