OllamaがOCR対応。v0.15.5で手書き認識やコーディング特化モデル追加
2026年2月5日 14:37
🤖 AI Summary
ローカルLLM実行環境「Ollama」は 2 月 3 日に v0.15.5 を公開し、以下の 2 つの新モデルをサポートしました。
* **GLM‑OCR**(Z.ai 開発) – 0.9 B パラメータの軽量画像認識モデル。手書き文字・数式・表・公印などが混在した文書を高精度で読み取れる。
* **Qwen3‑Coder‑Next**(Alibaba Qwen チーム) – コーディング支援特化の 80 B パラメータモデル。推論時に 3 B だけをアクティブにする「Sparse Mixture of Experts」を採用し、実行コストを抑制。
リリースノートには、VRAM 容量別のデフォルトコンテキスト長設定、`ollama launch` のサブエージェント対応、`ollama signin` でのブラウザ起動などの改良も記載されています。これにより、クラウド不要で自宅 PC 上でも OCR やコード生成が手軽に利用できるようになりました。
* **GLM‑OCR**(Z.ai 開発) – 0.9 B パラメータの軽量画像認識モデル。手書き文字・数式・表・公印などが混在した文書を高精度で読み取れる。
* **Qwen3‑Coder‑Next**(Alibaba Qwen チーム) – コーディング支援特化の 80 B パラメータモデル。推論時に 3 B だけをアクティブにする「Sparse Mixture of Experts」を採用し、実行コストを抑制。
リリースノートには、VRAM 容量別のデフォルトコンテキスト長設定、`ollama launch` のサブエージェント対応、`ollama signin` でのブラウザ起動などの改良も記載されています。これにより、クラウド不要で自宅 PC 上でも OCR やコード生成が手軽に利用できるようになりました。