mirror of
https://github.com/SuperClaude-Org/SuperClaude_Framework.git
synced 2025-12-29 16:16:08 +00:00
## Changes ### Removed (OpenAI-dependent) - ❌ `.github/workflows/translation-sync.yml` - GPT-Translate workflow - ❌ `docs/Development/translation-workflow.md` - OpenAI setup docs ### Added (Local Ollama-based) - ✅ `Makefile`: New `make translate` target using Neural CLI - ✅ `docs/Development/translation-guide.md` - Neural CLI guide ## Benefits **Before (GPT-Translate)**: - 💰 Monthly cost: ~¥90 (OpenAI API) - 🔑 Requires API key setup - 🌐 Data sent to external API - ⏱️ Network latency **After (Neural CLI)**: - ✅ **$0 cost** - Fully local execution - ✅ **No API keys** - Zero setup friction - ✅ **Privacy** - No external data transfer - ✅ **Fast** - ~1-2 min per README - ✅ **Offline capable** - Works without internet ## Technical Details **Neural CLI**: - Built in Rust with Tauri - Uses Ollama + qwen2.5:3b model - Binary size: 4.0MB - Auto-installs to ~/.local/bin/ **Usage**: ```bash make translate # Translates README.md → README-zh.md, README-ja.md ``` ## Requirements - Ollama installed: `curl -fsSL https://ollama.com/install.sh | sh` - Model downloaded: `ollama pull qwen2.5:3b` - Neural CLI built: `cd ~/github/neural/src-tauri && cargo build --bin neural-cli --release` 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude <noreply@anthropic.com>
4.3 KiB
4.3 KiB
README Translation Guide
概要
SuperClaude は Neural CLI を使用してローカルで高速翻訳を実現しています。
🎯 特徴
- ✅ 完全ローカル実行 - API キー不要
- 🚀 高速翻訳 - Ollama + qwen2.5:3b
- 💰 無料 - クラウド API 不要
- 🔒 プライバシー - データは外部送信されない
🔧 セットアップ
1. Ollama インストール
# macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh
# モデルダウンロード
ollama pull qwen2.5:3b
2. Neural CLI ビルド (初回のみ)
cd ~/github/neural/src-tauri
cargo build --bin neural-cli --release
ビルド済みバイナリ: ~/github/neural/src-tauri/target/release/neural-cli
📝 使用方法
自動翻訳 (推奨)
cd ~/github/SuperClaude_Framework
make translate
実行内容:
- neural-cli を自動インストール (~/.local/bin/)
- README.md → README-zh.md (簡体字中国語)
- README.md → README-ja.md (日本語)
手動翻訳
neural-cli translate README.md \
--from English \
--to "Simplified Chinese" \
--output README-zh.md
neural-cli translate README.md \
--from English \
--to Japanese \
--output README-ja.md
Ollama 接続確認
neural-cli health
出力例:
✅ Ollama is running at http://localhost:11434
📦 Available models:
- qwen2.5:3b
- llama3:latest
- ...
⚙️ 高度な設定
カスタム Ollama URL
neural-cli translate README.md \
--from English \
--to Japanese \
--output README-ja.md \
--ollama-url http://custom-host:11434
別モデル使用
neural-cli translate README.md \
--from English \
--to Japanese \
--output README-ja.md \
--model llama3:latest
🚫 トラブルシューティング
エラー: "Failed to connect to Ollama"
原因: Ollama が起動していない
解決策:
# Ollama を起動
ollama serve
# 別ターミナルで確認
neural-cli health
エラー: "Model not found: qwen2.5:3b"
原因: モデルがダウンロードされていない
解決策:
ollama pull qwen2.5:3b
翻訳品質が低い
改善策:
-
より大きなモデルを使用:
ollama pull qwen2.5:7b neural-cli translate README.md --model qwen2.5:7b ... -
プロンプトを調整:
neural/src-tauri/src/bin/cli.rsのtranslate_text関数を編集 -
温度パラメータを調整:
"temperature": 0.1, // より保守的な翻訳 "temperature": 0.5, // より自由な翻訳
📊 パフォーマンス
| ファイルサイズ | 翻訳時間 (qwen2.5:3b) | メモリ使用量 |
|---|---|---|
| 5KB README | ~30秒 | ~2GB |
| 10KB README | ~1分 | ~2GB |
| 20KB README | ~2分 | ~2GB |
システム要件:
- RAM: 最低4GB (推奨8GB)
- ストレージ: ~2GB (モデル用)
- CPU: Apple Silicon or x86_64
🔗 関連リンク
🎯 ワークフロー例
README 更新フロー
# 1. README.md を編集
vim README.md
# 2. 翻訳実行
make translate
# 3. 翻訳結果を確認
git diff README-zh.md README-ja.md
# 4. 必要に応じて手動調整
vim README-ja.md
# 5. コミット
git add README.md README-zh.md README-ja.md
git commit -m "docs: update README and translations"
大規模翻訳バッチ
# 複数ファイルを一括翻訳
for file in docs/*.md; do
neural-cli translate "$file" \
--from English \
--to Japanese \
--output "${file%.md}-ja.md"
done
💡 Tips
-
Ollama をバックグラウンドで常時起動:
# macOS (LaunchAgent) brew services start ollama -
翻訳前にチェック:
neural-cli health # Ollama 接続確認 -
翻訳後の品質チェック:
- マークダウン構造が保持されているか
- コードブロックが正しいか
- リンクが機能するか
-
Git diff で確認:
git diff README-ja.md | grep -E "^\+|^\-" | less