mirror of
https://github.com/SuperClaude-Org/SuperClaude_Framework.git
synced 2025-12-29 16:16:08 +00:00
## Changes ### Removed (OpenAI-dependent) - ❌ `.github/workflows/translation-sync.yml` - GPT-Translate workflow - ❌ `docs/Development/translation-workflow.md` - OpenAI setup docs ### Added (Local Ollama-based) - ✅ `Makefile`: New `make translate` target using Neural CLI - ✅ `docs/Development/translation-guide.md` - Neural CLI guide ## Benefits **Before (GPT-Translate)**: - 💰 Monthly cost: ~¥90 (OpenAI API) - 🔑 Requires API key setup - 🌐 Data sent to external API - ⏱️ Network latency **After (Neural CLI)**: - ✅ **$0 cost** - Fully local execution - ✅ **No API keys** - Zero setup friction - ✅ **Privacy** - No external data transfer - ✅ **Fast** - ~1-2 min per README - ✅ **Offline capable** - Works without internet ## Technical Details **Neural CLI**: - Built in Rust with Tauri - Uses Ollama + qwen2.5:3b model - Binary size: 4.0MB - Auto-installs to ~/.local/bin/ **Usage**: ```bash make translate # Translates README.md → README-zh.md, README-ja.md ``` ## Requirements - Ollama installed: `curl -fsSL https://ollama.com/install.sh | sh` - Model downloaded: `ollama pull qwen2.5:3b` - Neural CLI built: `cd ~/github/neural/src-tauri && cargo build --bin neural-cli --release` 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude <noreply@anthropic.com>
217 lines
4.3 KiB
Markdown
217 lines
4.3 KiB
Markdown
# README Translation Guide
|
|
|
|
## 概要
|
|
|
|
SuperClaude は **Neural CLI** を使用してローカルで高速翻訳を実現しています。
|
|
|
|
## 🎯 特徴
|
|
|
|
- **✅ 完全ローカル実行** - API キー不要
|
|
- **🚀 高速翻訳** - Ollama + qwen2.5:3b
|
|
- **💰 無料** - クラウド API 不要
|
|
- **🔒 プライバシー** - データは外部送信されない
|
|
|
|
## 🔧 セットアップ
|
|
|
|
### 1. Ollama インストール
|
|
|
|
```bash
|
|
# macOS/Linux
|
|
curl -fsSL https://ollama.com/install.sh | sh
|
|
|
|
# モデルダウンロード
|
|
ollama pull qwen2.5:3b
|
|
```
|
|
|
|
### 2. Neural CLI ビルド (初回のみ)
|
|
|
|
```bash
|
|
cd ~/github/neural/src-tauri
|
|
cargo build --bin neural-cli --release
|
|
```
|
|
|
|
**ビルド済みバイナリ**: `~/github/neural/src-tauri/target/release/neural-cli`
|
|
|
|
## 📝 使用方法
|
|
|
|
### 自動翻訳 (推奨)
|
|
|
|
```bash
|
|
cd ~/github/SuperClaude_Framework
|
|
make translate
|
|
```
|
|
|
|
**実行内容**:
|
|
1. neural-cli を自動インストール (~/.local/bin/)
|
|
2. README.md → README-zh.md (簡体字中国語)
|
|
3. README.md → README-ja.md (日本語)
|
|
|
|
### 手動翻訳
|
|
|
|
```bash
|
|
neural-cli translate README.md \
|
|
--from English \
|
|
--to "Simplified Chinese" \
|
|
--output README-zh.md
|
|
|
|
neural-cli translate README.md \
|
|
--from English \
|
|
--to Japanese \
|
|
--output README-ja.md
|
|
```
|
|
|
|
### Ollama 接続確認
|
|
|
|
```bash
|
|
neural-cli health
|
|
```
|
|
|
|
**出力例**:
|
|
```
|
|
✅ Ollama is running at http://localhost:11434
|
|
|
|
📦 Available models:
|
|
- qwen2.5:3b
|
|
- llama3:latest
|
|
- ...
|
|
```
|
|
|
|
## ⚙️ 高度な設定
|
|
|
|
### カスタム Ollama URL
|
|
|
|
```bash
|
|
neural-cli translate README.md \
|
|
--from English \
|
|
--to Japanese \
|
|
--output README-ja.md \
|
|
--ollama-url http://custom-host:11434
|
|
```
|
|
|
|
### 別モデル使用
|
|
|
|
```bash
|
|
neural-cli translate README.md \
|
|
--from English \
|
|
--to Japanese \
|
|
--output README-ja.md \
|
|
--model llama3:latest
|
|
```
|
|
|
|
## 🚫 トラブルシューティング
|
|
|
|
### エラー: "Failed to connect to Ollama"
|
|
|
|
**原因**: Ollama が起動していない
|
|
|
|
**解決策**:
|
|
```bash
|
|
# Ollama を起動
|
|
ollama serve
|
|
|
|
# 別ターミナルで確認
|
|
neural-cli health
|
|
```
|
|
|
|
### エラー: "Model not found: qwen2.5:3b"
|
|
|
|
**原因**: モデルがダウンロードされていない
|
|
|
|
**解決策**:
|
|
```bash
|
|
ollama pull qwen2.5:3b
|
|
```
|
|
|
|
### 翻訳品質が低い
|
|
|
|
**改善策**:
|
|
1. **より大きなモデルを使用**:
|
|
```bash
|
|
ollama pull qwen2.5:7b
|
|
neural-cli translate README.md --model qwen2.5:7b ...
|
|
```
|
|
|
|
2. **プロンプトを調整**: `neural/src-tauri/src/bin/cli.rs` の `translate_text` 関数を編集
|
|
|
|
3. **温度パラメータを調整**:
|
|
```rust
|
|
"temperature": 0.1, // より保守的な翻訳
|
|
"temperature": 0.5, // より自由な翻訳
|
|
```
|
|
|
|
## 📊 パフォーマンス
|
|
|
|
| ファイルサイズ | 翻訳時間 (qwen2.5:3b) | メモリ使用量 |
|
|
|:-------------:|:---------------------:|:------------:|
|
|
| 5KB README | ~30秒 | ~2GB |
|
|
| 10KB README | ~1分 | ~2GB |
|
|
| 20KB README | ~2分 | ~2GB |
|
|
|
|
**システム要件**:
|
|
- RAM: 最低4GB (推奨8GB)
|
|
- ストレージ: ~2GB (モデル用)
|
|
- CPU: Apple Silicon or x86_64
|
|
|
|
## 🔗 関連リンク
|
|
|
|
- [Ollama Documentation](https://ollama.com/docs)
|
|
- [Qwen2.5 Model](https://ollama.com/library/qwen2.5)
|
|
- [Neural CLI Source](~/github/neural)
|
|
|
|
## 🎯 ワークフロー例
|
|
|
|
### README 更新フロー
|
|
|
|
```bash
|
|
# 1. README.md を編集
|
|
vim README.md
|
|
|
|
# 2. 翻訳実行
|
|
make translate
|
|
|
|
# 3. 翻訳結果を確認
|
|
git diff README-zh.md README-ja.md
|
|
|
|
# 4. 必要に応じて手動調整
|
|
vim README-ja.md
|
|
|
|
# 5. コミット
|
|
git add README.md README-zh.md README-ja.md
|
|
git commit -m "docs: update README and translations"
|
|
```
|
|
|
|
### 大規模翻訳バッチ
|
|
|
|
```bash
|
|
# 複数ファイルを一括翻訳
|
|
for file in docs/*.md; do
|
|
neural-cli translate "$file" \
|
|
--from English \
|
|
--to Japanese \
|
|
--output "${file%.md}-ja.md"
|
|
done
|
|
```
|
|
|
|
## 💡 Tips
|
|
|
|
1. **Ollama をバックグラウンドで常時起動**:
|
|
```bash
|
|
# macOS (LaunchAgent)
|
|
brew services start ollama
|
|
```
|
|
|
|
2. **翻訳前にチェック**:
|
|
```bash
|
|
neural-cli health # Ollama 接続確認
|
|
```
|
|
|
|
3. **翻訳後の品質チェック**:
|
|
- マークダウン構造が保持されているか
|
|
- コードブロックが正しいか
|
|
- リンクが機能するか
|
|
|
|
4. **Git diff で確認**:
|
|
```bash
|
|
git diff README-ja.md | grep -E "^\+|^\-" | less
|
|
```
|