https://github.com/junhoyeo/tokscale
🛰️ A CLI tool for tracking token usage from OpenCode, Claude Code, 🦞OpenClaw (Clawdbot/Moltbot), Pi, Codex, Gemini, Cursor, AmpCode, Factory Droid, Kimi, and more! • 🏅Global Leaderboard + 2D/3D Contributions Graph
https://github.com/junhoyeo/tokscale
ai ai-agents ampcode claude claude-code clawdbot codex cursor cursor-ide droid gemini gemini-cli gpt moltbot oh oh-my-opencode openclaw opencode opentui token-usage
Last synced: 1 day ago
JSON representation
🛰️ A CLI tool for tracking token usage from OpenCode, Claude Code, 🦞OpenClaw (Clawdbot/Moltbot), Pi, Codex, Gemini, Cursor, AmpCode, Factory Droid, Kimi, and more! • 🏅Global Leaderboard + 2D/3D Contributions Graph
- Host: GitHub
- URL: https://github.com/junhoyeo/tokscale
- Owner: junhoyeo
- License: mit
- Created: 2025-12-01T13:15:27.000Z (4 months ago)
- Default Branch: main
- Last Pushed: 2026-03-13T03:53:52.000Z (5 days ago)
- Last Synced: 2026-03-13T10:00:58.964Z (5 days ago)
- Topics: ai, ai-agents, ampcode, claude, claude-code, clawdbot, codex, cursor, cursor-ide, droid, gemini, gemini-cli, gpt, moltbot, oh, oh-my-opencode, openclaw, opencode, opentui, token-usage
- Language: Rust
- Homepage: https://tokscale.ai
- Size: 79.9 MB
- Stars: 1,122
- Watchers: 11
- Forks: 80
- Open Issues: 43
-
Metadata Files:
- Readme: README.ja.md
- License: LICENSE
- Agents: AGENTS.md
Awesome Lists containing this project
- awesome-openclaw - Tokscale
- awesome-amp-code - Tokscale - CLI tool for tracking token usage from AmpCode and other coding agents. (Uncategorized / Uncategorized)
- awesome-ai-devtools - Tokscale
README
[](https://tokscale.ai)
> 複数のプラットフォームでAIコーディングアシスタントのトークン使用量とコストを追跡するための高性能CLIツールと可視化ダッシュボード。
> [!TIP]
>
> **v2 リリース — ネイティブ Rust TUI、クロスプラットフォーム対応など。**
> 毎週新しいオープンソースプロジェクトを公開しています。お見逃しなく。
>
> | [
](https://github.com/junhoyeo) | GitHubで[@junhoyeo](https://github.com/junhoyeo)をフォローして、他のプロジェクトもチェックしてください。AI、インフラ、その他様々な分野で開発しています。 |
> | :-----| :----- |
[](https://github.com/junhoyeo/tokscale/releases)
[](https://www.npmjs.com/package/tokscale)
[](https://github.com/junhoyeo/tokscale/graphs/contributors)
[](https://github.com/junhoyeo/tokscale/network/members)
[](https://github.com/junhoyeo/tokscale/stargazers)
[](https://github.com/junhoyeo/tokscale/issues)
[](https://github.com/junhoyeo/tokscale/blob/master/LICENSE)
[🇺🇸 English](README.md) | [🇰🇷 한국어](README.ko.md) | [🇯🇵 日本語](README.ja.md) | [🇨🇳 简体中文](README.zh-cn.md)
| Overview | Models |
|:---:|:---:|
|  |  |
| Daily Summary | Stats |
|:---:|:---:|
|  |  |
| Frontend (3D Contributions Graph) | Wrapped 2025 |
|:---:|:---:|
|
|
|
> **[`bunx tokscale submit`](#ソーシャルプラットフォームコマンド)を実行して、使用量データをリーダーボードに送信し、公開プロフィールを作成しましょう!**
## 概要
**Tokscale**は以下のプラットフォームからのトークン消費を監視・分析するのに役立ちます:
| ロゴ | クライアント | データ場所 | サポート |
|------|----------|---------------|-----------|
|
| [OpenCode](https://github.com/sst/opencode) | `~/.local/share/opencode/opencode.db` (1.2+) または `~/.local/share/opencode/storage/message/` | ✅ 対応 |
|
| [Claude Code](https://docs.anthropic.com/en/docs/claude-code) | `~/.claude/projects/` | ✅ 対応 |
|
| [OpenClaw](https://openclaw.ai/) | `~/.openclaw/agents/` (+ レガシー: `.clawdbot`, `.moltbot`, `.moldbot`) | ✅ 対応 |
|
| [Codex CLI](https://github.com/openai/codex) | `~/.codex/sessions/` | ✅ 対応 |
|
| [Gemini CLI](https://github.com/google-gemini/gemini-cli) | `~/.gemini/tmp/*/chats/*.json` | ✅ 対応 |
|
| [Cursor IDE](https://cursor.com/) | `~/.config/tokscale/cursor-cache/`経由でAPI同期 | ✅ 対応 |
|
| [Amp (AmpCode)](https://ampcode.com/) | `~/.local/share/amp/threads/` | ✅ 対応 |
|
| [Droid (Factory Droid)](https://factory.ai/) | `~/.factory/sessions/` | ✅ 対応 |
|
| [Pi](https://github.com/badlogic/pi-mono) | `~/.pi/agent/sessions/` | ✅ 対応 |
|
| [Kimi CLI](https://github.com/MoonshotAI/kimi-cli) | `~/.kimi/sessions/` | ✅ 対応 |
|
| [Qwen CLI](https://github.com/QwenLM/qwen-cli) | `~/.qwen/projects/` | ✅ 対応 |
|
| [Roo Code](https://github.com/RooCodeInc/Roo-Code) | `~/.config/Code/User/globalStorage/rooveterinaryinc.roo-cline/tasks/` (+ server: `~/.vscode-server/data/User/globalStorage/rooveterinaryinc.roo-cline/tasks/`) | ✅ 対応 |
|
| [Kilo](https://github.com/Kilo-Org/kilocode) | `~/.config/Code/User/globalStorage/kilocode.kilo-code/tasks/` (+ server: `~/.vscode-server/data/User/globalStorage/kilocode.kilo-code/tasks/`) | ✅ 対応 |
|
| [Mux](https://github.com/coder/mux) | `~/.mux/sessions/` | ✅ 対応 |
|
| [Synthetic](https://synthetic.new/) | `hf:`モデルや`synthetic`プロバイダを検出して他ソースから再帰属(+ [Octofriend](https://github.com/synthetic-lab/octofriend): `~/.local/share/octofriend/sqlite.db`) | ✅ 対応 |
[🚅 LiteLLMの価格データ](https://github.com/BerriAI/litellm)を使用してリアルタイム価格計算を提供し、階層型価格モデルとキャッシュトークン割引をサポートしています。
### なぜ「Tokscale」?
このプロジェクトは **[カルダシェフ・スケール(Kardashev Scale)](https://ja.wikipedia.org/wiki/%E3%82%AB%E3%83%AB%E3%83%80%E3%82%B7%E3%82%A7%E3%83%95%E3%83%BB%E3%82%B9%E3%82%B1%E3%83%BC%E3%83%AB)** に触発されています。これは天体物理学者ニコライ・カルダシェフがエネルギー消費量に基づいて文明の技術的発展レベルを測定するために提案した方法です。タイプI文明は惑星上で利用可能なすべてのエネルギーを活用し、タイプIIは恒星の全出力を捕捉し、タイプIIIは銀河全体のエネルギーを支配します。
AI支援開発の時代において、**トークンは新しいエネルギー**です。トークンは私たちの思考力を動かし、生産性を高め、創造的な成果を駆動します。カルダシェフ・スケールが宇宙規模でエネルギー消費を追跡するように、Tokscaleは AI増強開発のランクを上げながらトークン消費を測定します。カジュアルユーザーでも毎日数百万のトークンを消費する人でも、Tokscaleは惑星級開発者から銀河級コードアーキテクトへの旅を視覚化するのに役立ちます。
## 目次
- [概要](#概要)
- [なぜ「Tokscale」?](#なぜtokscale)
- [機能](#機能)
- [インストール](#インストール)
- [クイックスタート](#クイックスタート)
- [前提条件](#前提条件)
- [開発環境セットアップ](#開発環境セットアップ)
- [ネイティブモジュールのビルド](#ネイティブモジュールのビルド)
- [使用方法](#使用方法)
- [基本コマンド](#基本コマンド)
- [TUI機能](#tui機能)
- [プラットフォーム別フィルタリング](#プラットフォーム別フィルタリング)
- [日付フィルタリング](#日付フィルタリング)
- [価格検索](#価格検索)
- [ソーシャルプラットフォームコマンド](#ソーシャルプラットフォームコマンド)
- [Cursor IDEコマンド](#cursor-ideコマンド)
- [出力例](#出力例--lightバージョン)
- [設定](#設定)
- [環境変数](#環境変数)
- [フロントエンド可視化](#フロントエンド可視化)
- [機能](#機能-1)
- [フロントエンドの実行](#フロントエンドの実行)
- [ソーシャルプラットフォーム](#ソーシャルプラットフォーム)
- [機能](#機能-2)
- [GitHubプロフィール埋め込みウィジェット](#githubプロフィール埋め込みウィジェット)
- [はじめに](#はじめに)
- [データ検証](#データ検証)
- [Wrapped 2025](#wrapped-2025)
- [コマンド](#コマンド)
- [含まれる内容](#含まれる内容)
- [開発](#開発)
- [前提条件](#前提条件-1)
- [実行方法](#実行方法)
- [サポートプラットフォーム](#サポートプラットフォーム)
- [ネイティブモジュールターゲット](#ネイティブモジュールターゲット)
- [Windowsサポート](#windowsサポート)
- [セッションデータ保持](#セッションデータ保持)
- [データソース](#データソース)
- [価格](#価格)
- [コントリビューション](#コントリビューション)
- [開発ガイドライン](#開発ガイドライン)
- [謝辞](#謝辞)
- [ライセンス](#ライセンス)
## 機能
- **インタラクティブTUIモード** - Ratatuiによる美しいターミナルUI(デフォルトモード)
- 4つのインタラクティブビュー:概要、モデル、日別、統計
- キーボード&マウスナビゲーション
- 9色テーマのGitHubスタイル貢献グラフ
- リアルタイムフィルタリングとソート
- ゼロフリッカーレンダリング
- **マルチプラットフォームサポート** - OpenCode、Claude Code、Codex CLI、Cursor IDE、Gemini CLI、Amp、Droid、OpenClaw、Pi、Kimi CLI、Qwen CLI、Roo Code、Kilo、Mux、Synthetic全体の使用量追跡
- **リアルタイム価格** - 1時間ディスクキャッシュ付きでLiteLLMから現在の価格を取得;OpenRouter自動フォールバックと新規モデル向けCursor価格サポート
- **詳細な内訳** - 入力、出力、キャッシュ読み書き、推論トークン追跡
- **ネイティブRustコア** - 10倍高速な処理のため、すべての解析と集計をRustで実行
- **Web可視化** - 2Dと3Dビューのインタラクティブ貢献グラフ
- **柔軟なフィルタリング** - プラットフォーム、日付範囲、年別フィルタリング
- **JSONエクスポート** - 外部可視化ツール用のデータ生成
- **ソーシャルプラットフォーム** - 使用量の共有、リーダーボード競争、公開プロフィール閲覧
## インストール
### クイックスタート
```bash
# npxで直接実行
npx tokscale@latest
# またはbunxを使用
bunx tokscale@latest
# ライトモード(テーブルレンダリングのみ)
npx tokscale@latest --light
```
これだけです!セットアップ不要で完全なインタラクティブTUI体験が得られます。
> **パッケージ構造**: `tokscale`は`@tokscale/cli`をインストールするエイリアスパッケージです([`swc`](https://www.npmjs.com/package/swc)のように)。どちらもネイティブRustコア(`@tokscale/core`)を含む同じCLIをインストールします。
### 前提条件
- [Node.js](https://nodejs.org/) または [Bun](https://bun.sh/)
- (オプション)ソースからネイティブモジュールをビルドするためのRustツールチェーン
### 開発環境セットアップ
ローカル開発またはソースからビルドする場合:
```bash
# リポジトリをクローン
git clone https://github.com/junhoyeo/tokscale.git
cd tokscale
# Bunをインストール(まだインストールしていない場合)
curl -fsSL https://bun.sh/install | bash
# 依存関係をインストール
bun install
# 開発モードでCLIを実行
bun run cli
```
> **注**: `bun run cli`はローカル開発用です。`bunx tokscale`でインストールすると、コマンドが直接実行されます。以下の使用法セクションはインストールされたバイナリコマンドを示しています。
### ネイティブモジュールのビルド
ネイティブRustモジュールはCLI操作に**必須**です。並列ファイルスキャンとSIMD JSON解析により約10倍高速な処理を提供します:
```bash
# ネイティブコアをビルド(リポジトリルートから実行)
bun run build:core
```
> **注**: `bunx tokscale@latest`でインストールすると、ネイティブバイナリはビルド済みで含まれています。ソースからのビルドはローカル開発にのみ必要です。
## 使用方法
### 基本コマンド
```bash
# インタラクティブTUIを起動(デフォルト)
tokscale
# 特定のタブでTUIを起動
tokscale models # モデルタブ
tokscale monthly # 日別ビュー(日別内訳を表示)
# レガシーCLIテーブル出力を使用
tokscale --light
tokscale models --light
# 明示的にTUIを起動
tokscale tui
# 貢献グラフデータをJSONとしてエクスポート
tokscale graph --output data.json
# JSONとしてデータを出力(スクリプト/自動化用)
tokscale --json # デフォルトのモデルビューをJSON形式で
tokscale models --json # モデル内訳をJSON形式で
tokscale monthly --json # 月別内訳をJSON形式で
tokscale models --json > report.json # ファイルに保存
```
### TUI機能
インタラクティブTUIモードは以下を提供します:
- **4つのビュー**: 概要(チャート + トップモデル)、モデル、日別、統計(貢献グラフ)
- **キーボードナビゲーション**:
- `1-4`または`←/→/Tab`: ビュー切り替え
- `↑/↓`: リスト操作
- `c/d/t`: コスト/日付/トークンでソート
- `s`: ソース選択ダイアログを開く
- `g`: グループ基準選択ダイアログを開く(モデル、クライアント+モデル、クライアント+プロバイダー+モデル)
- `p`: 9色テーマを循環
- `r`: データ更新
- `e`: JSONにエクスポート
- `q`: 終了
- **マウスサポート**: タブ、ボタン、フィルターをクリック
- **テーマ**: Green、Halloween、Teal、Blue、Pink、Purple、Orange、Monochrome、YlGnBu
- **設定の永続化**: 設定は`~/.config/tokscale/settings.json`に保存([設定](#設定)を参照)
### グループ基準戦略
TUIで`g`を押すか、`--light`/`--json`モードで`--group-by`を使用してモデル行の集計方法を制御します:
| 戦略 | フラグ | TUIデフォルト | 効果 |
|------|--------|-------------|------|
| **モデル** | `--group-by model` | ✅ | モデルごとに1行 — すべてのクライアントとプロバイダーを統合 |
| **クライアント + モデル** | `--group-by client,model` | | クライアント-モデルペアごとに1行 |
| **クライアント + プロバイダー + モデル** | `--group-by client,provider,model` | | 最も詳細 — 統合なし |
**`--group-by model`**(最も統合)
| クライアント | プロバイダー | モデル | コスト |
|------------|------------|--------|--------|
| OpenCode, Claude, Amp | github-copilot, anthropic | claude-opus-4-5 | $2,424 |
| OpenCode, Claude | anthropic, github-copilot | claude-sonnet-4-5 | $1,332 |
**`--group-by client,model`**(CLIデフォルト)
| クライアント | プロバイダー | モデル | コスト |
|------------|------------|--------|--------|
| OpenCode | github-copilot, anthropic | claude-opus-4-5 | $1,368 |
| Claude | anthropic | claude-opus-4-5 | $970 |
**`--group-by client,provider,model`**(最も詳細)
| クライアント | プロバイダー | モデル | コスト |
|------------|------------|--------|--------|
| OpenCode | github-copilot | claude-opus-4-5 | $1,200 |
| OpenCode | anthropic | claude-opus-4-5 | $168 |
| Claude | anthropic | claude-opus-4-5 | $970 |
### プラットフォーム別フィルタリング
```bash
# OpenCodeの使用量のみ表示
tokscale --opencode
# Claude Codeの使用量のみ表示
tokscale --claude
# Codex CLIの使用量のみ表示
tokscale --codex
# Gemini CLIの使用量のみ表示
tokscale --gemini
# Cursor IDEの使用量のみ表示(事前に`tokscale cursor login`が必要)
tokscale --cursor
# Kimi CLIの使用量のみ表示
tokscale --kimi
# Qwen CLIの使用量のみ表示
tokscale --qwen
# Ampの使用量のみ表示
tokscale --amp
# Droidの使用量のみ表示
tokscale --droid
# OpenClawの使用量のみ表示
tokscale --openclaw
# Piの使用量のみ表示
tokscale --pi
# Roo Codeの使用量のみ表示
tokscale --roocode
# Kiloの使用量のみ表示
tokscale --kilocode
# Muxの使用量のみ表示
tokscale --mux
# Synthetic (synthetic.new) の使用量のみ表示
tokscale --synthetic
# フィルターを組み合わせ
tokscale --opencode --claude
```
### 日付フィルタリング
日付フィルターはレポートを生成するすべてのコマンドで機能します(`tokscale`、`tokscale models`、`tokscale monthly`、`tokscale graph`):
```bash
# クイック日付ショートカット
tokscale --today # 今日のみ
tokscale --week # 過去7日間
tokscale --month # 今月
# カスタム日付範囲(包括的、ローカルタイムゾーン)
tokscale --since 2024-01-01 --until 2024-12-31
# 年別フィルター
tokscale --year 2024
# 他のオプションと組み合わせ
tokscale models --week --claude --json
tokscale monthly --month --benchmark
```
> **注**: 日付フィルターはローカルタイムゾーンを使用します。`--since`と`--until`は両方とも包括的です。
### 価格検索
任意のモデルのリアルタイム価格を検索します:
```bash
# モデル価格を検索
tokscale pricing "claude-3-5-sonnet-20241022"
tokscale pricing "gpt-4o"
tokscale pricing "grok-code"
# 特定のプロバイダーソースを強制
tokscale pricing "grok-code" --provider openrouter
tokscale pricing "claude-3-5-sonnet" --provider litellm
```
**検索戦略:**
価格検索は多段階の解決戦略を使用します:
1. **完全一致** - LiteLLM/OpenRouterデータベースでの直接検索
2. **エイリアス解決** - 親しみやすい名前を解決(例:`big-pickle` → `glm-4.7`)
3. **ティアサフィックス除去** - 品質ティアを削除(`gpt-5.2-xhigh` → `gpt-5.2`)
4. **バージョン正規化** - バージョン形式を処理(`claude-3-5-sonnet` ↔ `claude-3.5-sonnet`)
5. **プロバイダープレフィックスマッチング** - 一般的なプレフィックスを試行(`anthropic/`、`openai/`など)
6. **Cursorモデル価格** - LiteLLM/OpenRouterにまだ存在しないモデルのハードコード価格(例:`gpt-5.3-codex`)
7. **ファジーマッチング** - 部分モデル名の単語境界マッチング
**プロバイダー優先順位:**
複数のマッチがある場合、オリジナルモデル作成者がリセラーより優先されます:
| 優先(オリジナル) | 非優先(リセラー) |
|---------------------|-------------------------|
| `xai/`(Grok) | `azure_ai/` |
| `anthropic/`(Claude) | `bedrock/` |
| `openai/`(GPT) | `vertex_ai/` |
| `google/`(Gemini) | `together_ai/` |
| `meta-llama/` | `fireworks_ai/` |
例:`grok-code`は`azure_ai/grok-code-fast-1`($3.50/$17.50)ではなく`xai/grok-code-fast-1`($0.20/$1.50)にマッチします。
### ソーシャルプラットフォームコマンド
```bash
# Tokscaleにログイン(GitHub認証用にブラウザを開く)
tokscale login
# ログイン中のユーザーを確認
tokscale whoami
# 使用量データをリーダーボードに送信
tokscale submit
# フィルター付きで送信
tokscale submit --opencode --claude --since 2024-01-01
# 送信内容をプレビュー(ドライラン)
tokscale submit --dry-run
# ログアウト
tokscale logout
```

### Cursor IDEコマンド
Cursor IDEはセッショントークンによる別途認証が必要です(ソーシャルプラットフォームのログインとは異なる):
```bash
# Cursorにログイン(ブラウザからセッショントークンが必要)
# --name は任意で、後でアカウントを識別するためのラベルです
tokscale cursor login --name work
# Cursor認証ステータスとセッションの有効性を確認
tokscale cursor status
# 保存済みのCursorアカウント一覧
tokscale cursor accounts
# アクティブアカウントを切り替え(cursor-cache/usage.csvに同期されるアカウント)
tokscale cursor switch work
# 特定アカウントからログアウト(履歴は保持、集計から除外)
tokscale cursor logout --name work
# ログアウト + そのアカウントのキャッシュ削除
tokscale cursor logout --name work --purge-cache
# すべてのCursorアカウントからログアウト(履歴は保持、集計から除外)
tokscale cursor logout --all
# 全アカウントをログアウトしてキャッシュも削除
tokscale cursor logout --all --purge-cache
```
**資格情報の保存**: Cursorアカウントは`~/.config/tokscale/cursor-credentials.json`に保存されます。使用量データは`~/.config/tokscale/cursor-cache/`にキャッシュされます(アクティブアカウントは`usage.csv`、追加アカウントは`usage..csv`)。
デフォルトでは、tokscale は **保存済みのすべての Cursor アカウントの使用量を合算**します(`cursor-cache/usage*.csv`)。後方互換のため、アクティブアカウントは `cursor-cache/usage.csv` に同期されます。
ログアウト時はキャッシュされた履歴を `cursor-cache/archive/` に移動して保持します(そのため集計には含まれません)。完全に削除したい場合は `--purge-cache` を使ってください。
**Cursorセッショントークンの取得方法:**
1. ブラウザで https://www.cursor.com/settings を開く
2. 開発者ツールを開く(F12)
3. **オプションA - Networkタブ**: ページで何らかのアクションを行い、`cursor.com/api/*`へのリクエストを見つけ、Request Headersの`Cookie`ヘッダーを確認し、`WorkosCursorSessionToken=`の後の値のみをコピー
4. **オプションB - Applicationタブ**: Application → Cookies → `https://www.cursor.com`に移動し、`WorkosCursorSessionToken`クッキーを見つけてその値をコピー(クッキー名ではなく値)
> ⚠️ **セキュリティ警告**: セッショントークンはパスワードのように扱ってください。公開したり、バージョン管理にコミットしたりしないでください。トークンはCursorアカウントへの完全なアクセス権を付与します。
### 出力例(`--light`バージョン)

### 設定
Tokscaleは設定を`~/.config/tokscale/settings.json`に保存します:
```json
{
"colorPalette": "blue",
"includeUnusedModels": false
}
```
| 設定 | タイプ | デフォルト | 説明 |
|---------|------|---------|-------------|
| `colorPalette` | string | `"blue"` | TUIカラーテーマ(green、halloween、teal、blue、pink、purple、orange、monochrome、ylgnbu) |
| `includeUnusedModels` | boolean | `false` | レポートでゼロトークンのモデルを表示 |
| `autoRefreshEnabled` | boolean | `false` | TUIの自動更新を有効化 |
| `autoRefreshMs` | number | `60000` | 自動更新間隔(30000-3600000ms) |
| `nativeTimeoutMs` | number | `300000` | ネイティブサブプロセス処理の最大時間(5000-3600000ms) |
### 環境変数
環境変数は設定ファイルの値をオーバーライドします。CI/CDや一時的な使用向け:
| 変数 | デフォルト | 説明 |
|----------|---------|-------------|
| `TOKSCALE_NATIVE_TIMEOUT_MS` | `300000`(5分) | `nativeTimeoutMs` 設定をオーバーライド |
```bash
# 例:非常に大きなデータセット用にタイムアウトを増加
TOKSCALE_NATIVE_TIMEOUT_MS=600000 tokscale graph --output data.json
```
> **注**: 恒久的な変更には、`~/.config/tokscale/settings.json`で`nativeTimeoutMs`を設定することをお勧めします。環境変数は一時的なオーバーライドやCI/CDに適しています。
### ヘッドレスモード
Tokscaleは、自動化、CI/CDパイプライン、バッチ処理のための**Codex CLIヘッドレス出力**からトークン使用量を集計できます。
**ヘッドレスモードとは?**
Codex CLIをJSON出力フラグ付きで実行すると(例:\`codex exec --json\`)、通常のセッションディレクトリに保存する代わりに、使用量データをstdoutに出力します。ヘッドレスモードを使用すると、この使用量をキャプチャして追跡できます。
**保存場所:** \`~/.config/tokscale/headless/\`
macOSでは、\`TOKSCALE_HEADLESS_DIR\`が設定されていない場合、Tokscaleは\`~/Library/Application Support/tokscale/headless/\`もスキャンします。
Tokscaleは次のディレクトリ構造を自動的にスキャンします:
\`\`\`
~/.config/tokscale/headless/
└── codex/ # Codex CLI JSONL出力
\`\`\`
**環境変数:** \`TOKSCALE_HEADLESS_DIR\`を設定してヘッドレスログディレクトリをカスタマイズできます:
\`\`\`bash
export TOKSCALE_HEADLESS_DIR="$HOME/my-custom-logs"
\`\`\`
**推奨(自動キャプチャ):**
| ツール | コマンド例 |
|--------|-----------|
| **Codex CLI** | \`tokscale headless codex exec -m gpt-5 "implement feature"\` |
**手動リダイレクト(オプション):**
| ツール | コマンド例 |
|--------|-----------|
| **Codex CLI** | \`codex exec --json "implement feature" > ~/.config/tokscale/headless/codex/ci-run.jsonl\` |
**診断:**
\`\`\`bash
# スキャン場所とヘッドレスカウントを表示
tokscale sources
tokscale sources --json
\`\`\`
**CI/CD統合例:**
\`\`\`bash
# GitHub Actionsワークフローで
- name: Run AI automation
run: |
mkdir -p ~/.config/tokscale/headless/codex
codex exec --json "review code changes" \\
> ~/.config/tokscale/headless/codex/pr-\${{ github.event.pull_request.number }}.jsonl
# 後で使用量を追跡
- name: Report token usage
run: tokscale --json
\`\`\`
> **注**: ヘッドレスキャプチャはCodex CLIのみサポートしています。Codexを直接実行する場合は、上記のようにstdoutをヘッドレスディレクトリにリダイレクトしてください。
## フロントエンド可視化
フロントエンドはGitHubスタイルの貢献グラフ可視化を提供します:
### 機能
- **2Dビュー**: クラシックなGitHub貢献カレンダー
- **3Dビュー**: トークン使用量に基づく高さのアイソメトリック3D貢献グラフ
- **複数のカラーパレット**: GitHub、GitLab、Halloween、Winterなど
- **3ウェイテーマトグル**: Light / Dark / System(OS設定に従う)
- **GitHub Primerデザイン**: GitHubの公式カラーシステムを使用
- **インタラクティブツールチップ**: ホバーで詳細な日別内訳を表示
- **日別内訳パネル**: クリックでソース別、モデル別の詳細を確認
- **年別フィルタリング**: 年間を移動
- **ソースフィルタリング**: プラットフォーム別フィルター(OpenCode、Claude、Codex、Cursor、Gemini、Amp、Droid、OpenClaw、Pi、Kimi、Qwen、Roo Code、Kilo、Mux、Synthetic)
- **統計パネル**: 総コスト、トークン、活動日数、連続記録
- **FOUC防止**: Reactハイドレーション前にテーマを適用(フラッシュなし)
### フロントエンドの実行
```bash
cd packages/frontend
bun install
bun run dev
```
[http://localhost:3000](http://localhost:3000)を開いてソーシャルプラットフォームにアクセスしてください。
## ソーシャルプラットフォーム
Tokscaleには使用量データを共有し、他の開発者と競争できるソーシャルプラットフォームが含まれています。
### 機能
- **リーダーボード** - すべてのプラットフォームで最もトークンを使用している人を確認
- **ユーザープロフィール** - 貢献グラフと統計を含む公開プロフィール
- **期間フィルタリング** - 全期間、今月、今週の統計を表示
- **GitHub統合** - GitHubアカウントでログイン
- **ローカルビューアー** - 送信せずにプライベートにデータを表示
### GitHubプロフィール埋め込みウィジェット
GitHubプロフィールREADMEにTokscaleの公開統計を直接埋め込むことができます:
```md
[](https://tokscale.ai/u/)
```
- ``をGitHubユーザー名に置き換えてください
- オプションのクエリパラメータ:
- `theme=light` ライトテーマを使用
- `sort=tokens`(デフォルト)または`sort=cost` ランキング基準を制御
- `compact=1` コンパクトレイアウト + コンパクトな数値表記(例:`1.2M`、`$3.4K`)
- 例:
- `https://tokscale.ai/api/embed//svg?theme=light&sort=cost&compact=1`
### はじめに
1. **ログイン** - `tokscale login`を実行してGitHubで認証
2. **送信** - `tokscale submit`を実行して使用量データをアップロード
3. **表示** - Webプラットフォームを訪問してプロフィールとリーダーボードを確認
### データ検証
送信されたデータはレベル1検証を受けます:
- 数学的整合性(合計が一致、負の値なし)
- 未来の日付なし
- 必須フィールドの存在
- 重複検出
## Wrapped 2025

Spotify Wrappedにインスパイアされた、AIコーディングアシスタントの年間使用量をまとめた美しいレビュー画像を生成します。
| `bunx tokscale@latest wrapped` | `bunx tokscale@latest wrapped --clients` | `bunx tokscale@latest wrapped --agents --disable-pinned` |
|:---:|:---:|:---:|
|  |  |  |
### コマンド
```bash
# 現在の年のWrapped画像を生成
tokscale wrapped
# 特定の年のWrapped画像を生成
tokscale wrapped --year 2025
```
### 含まれる内容
生成される画像には以下が含まれます:
- **総トークン数** - 年間のトークン消費量
- **トップモデル** - コスト順にランク付けされた最も使用したAIモデル3つ
- **トップクライアント** - 最も使用したプラットフォーム3つ(OpenCode、Claude Code、Cursorなど)
- **メッセージ数** - AIとのインタラクション総数
- **活動日数** - 少なくとも1回のAIインタラクションがあった日数
- **コスト** - LiteLLM価格に基づく推定総コスト
- **連続記録** - 最長の連続活動日数
- **貢献グラフ** - 年間活動のビジュアルヒートマップ
生成されたPNGはソーシャルメディア共有に最適化されています。コミュニティとあなたのコーディングの旅を共有しましょう!
## 開発
> **クイックセットアップ**: すぐに始めたい場合は、上記のインストールセクションの[開発環境セットアップ](#開発環境セットアップ)を参照してください。
### 前提条件
```bash
# Bun(必須)
bun --version
# Rust(ネイティブモジュール用)
rustc --version
cargo --version
```
### 実行方法
[開発環境セットアップ](#開発環境セットアップ)に従った後:
```bash
# ネイティブモジュールをビルド(オプションだが推奨)
bun run build:core
# 開発モードで実行(TUIを起動)
cd packages/cli && bun src/cli.ts
# またはレガシーCLIモードを使用
cd packages/cli && bun src/cli.ts --light
```
高度な開発
### プロジェクトスクリプト
| スクリプト | 説明 |
|--------|-------------|
| `bun run cli` | 開発モードでCLIを実行(BunでTUI) |
| `bun run build:core` | ネイティブRustモジュールをビルド(リリース) |
| `bun run build:cli` | CLIのTypeScriptをdist/にビルド |
| `bun run build` | coreとCLI両方をビルド |
| `bun run dev:frontend` | フロントエンド開発サーバーを実行 |
**パッケージ固有スクリプト**(パッケージディレクトリ内から):
- `packages/cli`: `bun run dev`、`bun run tui`
- `packages/core`: `bun run build:debug`、`bun run test`、`bun run bench`
**注**: このプロジェクトは開発時に**Bun**をパッケージマネージャーとして使用しています。
### テスト
```bash
# ネイティブモジュールをテスト(Rust)
cd packages/core
bun run test:rust # Cargoテスト
bun run test # Node.js統合テスト
bun run test:all # 両方
```
### ネイティブモジュール開発
```bash
cd packages/core
# デバッグモードでビルド(コンパイルが速い)
bun run build:debug
# リリースモードでビルド(最適化済み)
bun run build
# Rustベンチマークを実行
bun run bench
```
### グラフコマンドオプション
```bash
# グラフデータをファイルにエクスポート
tokscale graph --output usage-data.json
# 日付フィルタリング(すべてのショートカットが使用可能)
tokscale graph --today
tokscale graph --week
tokscale graph --since 2024-01-01 --until 2024-12-31
tokscale graph --year 2024
# プラットフォーム別フィルター
tokscale graph --opencode --claude
# 処理時間ベンチマークを表示
tokscale graph --output data.json --benchmark
```
### ベンチマークフラグ
パフォーマンス分析用の処理時間を表示:
```bash
tokscale --benchmark # デフォルトビューと共に処理時間を表示
tokscale models --benchmark # モデルレポートをベンチマーク
tokscale monthly --benchmark # 月別レポートをベンチマーク
tokscale graph --benchmark # グラフ生成をベンチマーク
```
### フロントエンド用データの生成
```bash
# 可視化用データをエクスポート
tokscale graph --output packages/frontend/public/my-data.json
```
### パフォーマンス
ネイティブRustモジュールは大幅なパフォーマンス向上を提供します:
| 操作 | TypeScript | Rustネイティブ | 高速化 |
|-----------|------------|-------------|---------|
| ファイル探索 | ~500ms | ~50ms | **10倍** |
| JSON解析 | ~800ms | ~100ms | **8倍** |
| 集計 | ~200ms | ~25ms | **8倍** |
| **合計** | **~1.5秒** | **~175ms** | **~8.5倍** |
*約1000セッションファイル、100kメッセージのベンチマーク*
#### メモリ最適化
ネイティブモジュールは以下を通じて約45%のメモリ削減も提供します:
- ストリーミングJSON解析(ファイル全体のバッファリングなし)
- ゼロコピー文字列処理
- マップリデュースによる効率的な並列集計
#### ベンチマークの実行
```bash
# 合成データを生成
cd packages/benchmarks && bun run generate
# Rustベンチマークを実行
cd packages/core && bun run bench
```
## サポートプラットフォーム
### ネイティブモジュールターゲット
| プラットフォーム | アーキテクチャ | ステータス |
|----------|--------------|--------|
| macOS | x86_64 | ✅ サポート |
| macOS | aarch64(Apple Silicon) | ✅ サポート |
| Linux | x86_64(glibc) | ✅ サポート |
| Linux | aarch64(glibc) | ✅ サポート |
| Linux | x86_64(musl) | ✅ サポート |
| Linux | aarch64(musl) | ✅ サポート |
| Windows | x86_64 | ✅ サポート |
| Windows | aarch64 | ✅ サポート |
### Windowsサポート
TokscaleはWindowsを完全にサポートしています。TUIとCLIはmacOS/Linuxと同様に動作します。
**Windowsでのインストール:**
```powershell
# Bunのインストール(PowerShell)
powershell -c "irm bun.sh/install.ps1 | iex"
# tokscaleの実行
bunx tokscale@latest
```
#### Windowsでのデータ保存場所
AIコーディングツールはクロスプラットフォームの場所にセッションデータを保存します。ほとんどのツールはすべてのプラットフォームで同じ相対パスを使用します:
| ツール | Unixパス | Windowsパス | ソース |
|------|-----------|--------------|--------|
| OpenCode | `~/.local/share/opencode/` | `%USERPROFILE%\.local\share\opencode\` | クロスプラットフォームの一貫性のため[`xdg-basedir`](https://github.com/sindresorhus/xdg-basedir)を使用([ソース](https://github.com/sst/opencode/blob/main/packages/opencode/src/global/index.ts)) |
| Claude Code | `~/.claude/` | `%USERPROFILE%\.claude\` | すべてのプラットフォームで同じパス |
| OpenClaw | `~/.openclaw/` (+ レガシー: `.clawdbot`, `.moltbot`, `.moldbot`) | `%USERPROFILE%\.openclaw\` (+ レガシーパス) | すべてのプラットフォームで同じパス |
| Codex CLI | `~/.codex/` | `%USERPROFILE%\.codex\` | `CODEX_HOME`環境変数で設定可能([ソース](https://github.com/openai/codex)) |
| Gemini CLI | `~/.gemini/` | `%USERPROFILE%\.gemini\` | すべてのプラットフォームで同じパス |
| Amp | `~/.local/share/amp/` | `%USERPROFILE%\.local\share\amp\` | OpenCodeと同様に`xdg-basedir`を使用 |
| Cursor | API同期 | API同期 | APIでデータを取得、`%USERPROFILE%\.config\tokscale\cursor-cache\`にキャッシュ |
| Droid | `~/.factory/` | `%USERPROFILE%\.factory\` | すべてのプラットフォームで同じパス |
| Pi | `~/.pi/` | `%USERPROFILE%\.pi\` | すべてのプラットフォームで同じパス |
| Kimi CLI | `~/.kimi/` | `%USERPROFILE%\.kimi\` | すべてのプラットフォームで同じパス |
| Qwen CLI | `~/.qwen/` | `%USERPROFILE%\.qwen\` | すべてのプラットフォームで同じパス |
| Roo Code | `~/.config/Code/User/globalStorage/rooveterinaryinc.roo-cline/tasks/` | `%USERPROFILE%\.config\Code\User\globalStorage\rooveterinaryinc.roo-cline\tasks\` | VS Code globalStorageタスクログ |
| Kilo | `~/.config/Code/User/globalStorage/kilocode.kilo-code/tasks/` | `%USERPROFILE%\.config\Code\User\globalStorage\kilocode.kilo-code\tasks\` | VS Code globalStorageタスクログ |
| Mux | `~/.mux/sessions/` | `%USERPROFILE%\.mux\sessions\` | 全プラットフォームで同じパス |
| Synthetic | 他ソースから再帰属 | 他ソースから再帰属 | `hf:`モデル + `synthetic`プロバイダを検出 |
> **注**: Windowsでは`~`は`%USERPROFILE%`に展開されます(例:`C:\Users\ユーザー名`)。これらのツールは`%APPDATA%`のようなWindowsネイティブパスではなく、クロスプラットフォームの一貫性のためにUnixスタイルのパス(`.local/share`など)を意図的に使用しています。
#### Windows固有の設定
Tokscaleは以下の場所に設定を保存します:
- **設定**: `%USERPROFILE%\.config\tokscale\settings.json`
- **キャッシュ**: `%USERPROFILE%\.cache\tokscale\`
- **Cursor認証情報**: `%USERPROFILE%\.config\tokscale\cursor-credentials.json`
## セッションデータ保持
デフォルトでは、一部のAIコーディングアシスタントは古いセッションファイルを自動的に削除します。正確な追跡のために使用履歴を保持するには、クリーンアップ期間を無効化または延長してください。
| プラットフォーム | デフォルト | 設定ファイル | 無効化設定 | ソース |
|----------|---------|-------------|-------------------|--------|
| Claude Code | **⚠️ 30日** | `~/.claude/settings.json` | `"cleanupPeriodDays": 9999999999` | [ドキュメント](https://docs.anthropic.com/en/docs/claude-code/settings) |
| Gemini CLI | 無効 | `~/.gemini/settings.json` | `"general.sessionRetention.enabled": false` | [ドキュメント](https://github.com/google-gemini/gemini-cli/blob/main/docs/cli/session-management.md) |
| Codex CLI | 無効 | N/A | クリーンアップ機能なし | [#6015](https://github.com/openai/codex/issues/6015) |
| OpenCode | 無効 | N/A | クリーンアップ機能なし | [#4980](https://github.com/sst/opencode/issues/4980) |
### Claude Code
**デフォルト**: 30日のクリーンアップ期間
`~/.claude/settings.json`に追加:
```json
{
"cleanupPeriodDays": 9999999999
}
```
> 非常に大きな値(例:`9999999999`日 ≈ 2700万年)を設定すると、事実上クリーンアップが無効になります。
### Gemini CLI
**デフォルト**: クリーンアップ無効(セッションは永久に保持)
クリーンアップを有効にしてから無効にしたい場合は、`~/.gemini/settings.json`で削除するか`enabled: false`に設定:
```json
{
"general": {
"sessionRetention": {
"enabled": false
}
}
}
```
または非常に長い保持期間を設定:
```json
{
"general": {
"sessionRetention": {
"enabled": true,
"maxAge": "9999999d"
}
}
}
```
### Codex CLI
**デフォルト**: 自動クリーンアップなし(セッションは永久に保持)
Codex CLIには組み込みのセッションクリーンアップがありません。`~/.codex/sessions/`のセッションは無期限に保持されます。
> **注**: これに対する機能リクエストがあります:[#6015](https://github.com/openai/codex/issues/6015)
### OpenCode
**デフォルト**: 自動クリーンアップなし(セッションは永久に保持)
OpenCodeには組み込みのセッションクリーンアップがありません。`~/.local/share/opencode/storage/`のセッションは無期限に保持されます。
> **注**: [#4980](https://github.com/sst/opencode/issues/4980)を参照
---
## データソース
### OpenCode
場所: `~/.local/share/opencode/opencode.db` (v1.2+) または `storage/message/{sessionId}/*.json` (レガシー)
OpenCode 1.2+はセッションをSQLiteに保存します。TokscaleはまずSQLiteから読み取り、古いバージョンの場合はレガシーJSONファイルにフォールバックします。
各メッセージの内容:
```json
{
"id": "msg_xxx",
"role": "assistant",
"modelID": "claude-sonnet-4-20250514",
"providerID": "anthropic",
"tokens": {
"input": 1234,
"output": 567,
"reasoning": 0,
"cache": { "read": 890, "write": 123 }
},
"time": { "created": 1699999999999 }
}
```
### Claude Code
場所: `~/.claude/projects/{projectPath}/*.jsonl`
アシスタントメッセージの使用量データを含むJSONL形式:
```json
{"type": "assistant", "message": {"model": "claude-sonnet-4-20250514", "usage": {"input_tokens": 1234, "output_tokens": 567, "cache_read_input_tokens": 890}}, "timestamp": "2024-01-01T00:00:00Z"}
```
### Codex CLI
場所: `~/.codex/sessions/*.jsonl`
`token_count`イベントを含むイベントベース形式:
```json
{"type": "event_msg", "payload": {"type": "token_count", "info": {"last_token_usage": {"input_tokens": 1234, "output_tokens": 567}}}}
```
### Gemini CLI
場所: `~/.gemini/tmp/{projectHash}/chats/*.json`
メッセージ配列を含むセッションファイル:
```json
{
"sessionId": "xxx",
"messages": [
{"type": "gemini", "model": "gemini-2.5-pro", "tokens": {"input": 1234, "output": 567, "cached": 890, "thoughts": 123}}
]
}
```
### Cursor IDE
場所: `~/.config/tokscale/cursor-cache/`(Cursor API経由で同期)
CursorデータはセッショントークンでCursor APIから取得され、ローカルにキャッシュされます。認証するには`tokscale cursor login`を実行してください。セットアップ手順は[Cursor IDEコマンド](#cursor-ideコマンド)を参照。
### OpenClaw
場所: `~/.openclaw/agents/*/sessions/sessions.json`(レガシーパスもスキャン: `~/.clawdbot/`, `~/.moltbot/`, `~/.moldbot/`)
JSONLセッションファイルを指すインデックスファイル:
```json
{
"agent:main:main": {
"sessionId": "uuid",
"sessionFile": "/path/to/session.jsonl"
}
}
```
model_changeイベントとアシスタントメッセージを含むセッションJSONL形式:
```json
{"type":"model_change","provider":"openai-codex","modelId":"gpt-5.2"}
{"type":"message","message":{"role":"assistant","usage":{"input":1660,"output":55,"cacheRead":108928,"cost":{"total":0.02}},"timestamp":1769753935279}}
```
### Pi
場所: `~/.pi/agent/sessions//*.jsonl`
セッションヘッダーとメッセージエントリを含むJSONL形式:
```json
{"type":"session","id":"pi_ses_001","timestamp":"2026-01-01T00:00:00.000Z","cwd":"/tmp"}
{"type":"message","id":"msg_001","timestamp":"2026-01-01T00:00:01.000Z","message":{"role":"assistant","model":"claude-3-5-sonnet","provider":"anthropic","usage":{"input":100,"output":50,"cacheRead":10,"cacheWrite":5,"totalTokens":165}}}
```
### Kimi CLI
場所: `~/.kimi/sessions/{GROUP_ID}/{SESSION_UUID}/wire.jsonl`
StatusUpdate メッセージを含む wire.jsonl 形式:
```json
{"type": "metadata", "protocol_version": "1.3"}
{"timestamp": 1770983426.420942, "message": {"type": "StatusUpdate", "payload": {"token_usage": {"input_other": 1562, "output": 2463, "input_cache_read": 0, "input_cache_creation": 0}, "message_id": "chatcmpl-xxx"}}}
```
### Qwen CLI
場所: `~/.qwen/projects/{PROJECT_PATH}/chats/{CHAT_ID}.jsonl`
形式: JSONL — 1行に1つのJSONオブジェクト、各オブジェクトに`type`、`model`、`timestamp`、`sessionId`、`usageMetadata`フィールドを含む。
トークンフィールド(`usageMetadata`から):
- `promptTokenCount` → 入力トークン
- `candidatesTokenCount` → 出力トークン
- `thoughtsTokenCount` → 推論/思考トークン
- `cachedContentTokenCount` → キャッシュされた入力トークン
### Roo Code
場所:
- ローカル:`~/.config/Code/User/globalStorage/rooveterinaryinc.roo-cline/tasks/{TASK_ID}/ui_messages.json`
- サーバー(ベストエフォート):`~/.vscode-server/data/User/globalStorage/rooveterinaryinc.roo-cline/tasks/{TASK_ID}/ui_messages.json`
各タスクディレクトリには、モデル/エージェントメタデータに使用される``ブロックを含む`api_conversation_history.json`も含まれる場合があります。
`ui_messages.json`はUIイベントの配列です。Tokscaleは以下のみをカウントします:
- `type == "say"`
- `say == "api_req_started"`
`text`フィールドはトークン/コストメタデータを含むJSONです:
```json
{
"type": "say",
"say": "api_req_started",
"ts": "2026-02-18T12:00:00Z",
"text": "{\"cost\":0.12,\"tokensIn\":100,\"tokensOut\":50,\"cacheReads\":20,\"cacheWrites\":5,\"apiProtocol\":\"anthropic\"}"
}
```
### Kilo
場所:
- ローカル:`~/.config/Code/User/globalStorage/kilocode.kilo-code/tasks/{TASK_ID}/ui_messages.json`
- サーバー(ベストエフォート):`~/.vscode-server/data/User/globalStorage/kilocode.kilo-code/tasks/{TASK_ID}/ui_messages.json`
KiloはRoo Codeと同じタスクログ形式を使用します。Tokscaleは同じルールを適用します:
- `ui_messages.json`から`say/api_req_started`イベントのみをカウント
- `text` JSONから`tokensIn`、`tokensOut`、`cacheReads`、`cacheWrites`、`cost`、`apiProtocol`を解析
- 利用可能な場合、隣接する`api_conversation_history.json`からモデル/エージェントメタデータを補完
### Mux
場所:
`~/.mux/sessions/{WORKSPACE_ID}/session-usage.json`
Muxはセッションごとの累積トークン使用量を`session-usage.json`ファイルに保存します。各ファイルにはモデルごとのトークン内訳を含む`byModel`マップがあります:
`input`、`cached`(キャッシュ読み取り)、`cacheCreate`(キャッシュ書き込み)、`output`、`reasoning`
モデル名は`provider:model`形式を使用します(例: `anthropic:claude-opus-4-6`)— tokscaleはモデル識別のためにプロバイダプレフィクスを除去します
サブエージェントの使用量はMuxによって自動的に親セッションにロールアップされるため、二重計上はありません
### Synthetic (synthetic.new)
Synthetic は他ソースのメッセージを後処理で再帰属します。`hf:`プレフィックスのモデル ID または `synthetic` / `glhf` / `octofriend` プロバイダを検出した場合、ソースを `synthetic` として扱います。
また `~/.local/share/octofriend/sqlite.db` を検出し、トークン情報を持つレコードを取り込みます。
## 価格
Tokscaleは[LiteLLMの価格データベース](https://github.com/BerriAI/litellm/blob/main/model_prices_and_context_window.json)からリアルタイム価格を取得します。
**ダイナミックフォールバック**: LiteLLMにまだ存在しないモデル(例:最近リリースされたモデル)は、[OpenRouterのエンドポイントAPI](https://openrouter.ai/docs/api/api-reference/endpoints/list-endpoints)から自動的に価格を取得します。
**Cursorモデル価格**: LiteLLMとOpenRouterの両方にまだ存在しない最新モデル(例:`gpt-5.3-codex`)は、[Cursorモデルドキュメント](https://cursor.com/en-US/docs/models)から取得したハードコード価格を使用します。これらのオーバーライドはすべてのアップストリームソースの後、ファジーマッチングの前にチェックされるため、実際のアップストリーム価格が利用可能になると自動的に優先されます。
**キャッシュ**: 価格データは1時間TTLでディスクにキャッシュされ、高速な起動を確保します:
- LiteLLMキャッシュ: `~/.cache/tokscale/pricing-litellm.json`
- OpenRouterキャッシュ: `~/.cache/tokscale/pricing-openrouter.json`(サポート対象プロバイダーのモデル作成者価格をキャッシュ)
価格には以下が含まれます:
- 入力トークン
- 出力トークン
- キャッシュ読み取りトークン(割引)
- キャッシュ書き込みトークン
- 推論トークン(o1などのモデル用)
- 階層型価格(200kトークン以上)
## コントリビューション
コントリビューションを歓迎します!以下の手順に従ってください:
1. リポジトリをフォーク
2. 機能ブランチを作成(`git checkout -b feature/amazing-feature`)
3. 変更を加える
4. テストを実行(`cd packages/core && bun run test:all`)
5. 変更をコミット(`git commit -m 'Add amazing feature'`)
6. ブランチにプッシュ(`git push origin feature/amazing-feature`)
7. プルリクエストを開く
### 開発ガイドライン
- 既存のコードスタイルに従う
- 新機能にはテストを追加
- 必要に応じてドキュメントを更新
- コミットは集中的かつアトミックに
## 謝辞
- インスピレーションを与えてくれた[ccusage](https://github.com/ryoppippi/ccusage)、[viberank](https://github.com/sculptdotfun/viberank)、[Isometric Contributions](https://github.com/jasonlong/isometric-contributions)
- ターミナルUIフレームワーク[Ratatui](https://github.com/ratatui/ratatui)
- リアクティブレンダリングの[Solid.js](https://www.solidjs.com/)
- 価格データの[LiteLLM](https://github.com/BerriAI/litellm)
- Rust/Node.jsバインディングの[napi-rs](https://napi.rs/)
- 2Dグラフ参照の[github-contributions-canvas](https://github.com/sallar/github-contributions-canvas)
## ライセンス
MIT © Junho Yeo
このプロジェクトが興味深いと感じたら、**スターを付けてください ⭐** または[GitHubでフォロー](https://github.com/junhoyeo)して旅に参加してください(すでに1.1k以上が乗船中)。私は24時間コーディングし、定期的に驚くべきものを出荷しています—あなたのサポートは無駄になりません。