Files
SuperClaude/docs/Development/translation-guide.md

217 lines
4.3 KiB
Markdown
Raw Normal View History

# README Translation Guide
## 概要
SuperClaude は **Neural CLI** を使用してローカルで高速翻訳を実現しています。
## 🎯 特徴
- **✅ 完全ローカル実行** - API キー不要
- **🚀 高速翻訳** - Ollama + qwen2.5:3b
- **💰 無料** - クラウド API 不要
- **🔒 プライバシー** - データは外部送信されない
## 🔧 セットアップ
### 1. Ollama インストール
```bash
# macOS/Linux
curl -fsSL https://ollama.com/install.sh | sh
# モデルダウンロード
ollama pull qwen2.5:3b
```
### 2. Neural CLI ビルド (初回のみ)
```bash
cd ~/github/neural/src-tauri
cargo build --bin neural-cli --release
```
**ビルド済みバイナリ**: `~/github/neural/src-tauri/target/release/neural-cli`
## 📝 使用方法
### 自動翻訳 (推奨)
```bash
cd ~/github/SuperClaude_Framework
make translate
```
**実行内容**:
1. neural-cli を自動インストール (~/.local/bin/)
2. README.md → README-zh.md (簡体字中国語)
3. README.md → README-ja.md (日本語)
### 手動翻訳
```bash
neural-cli translate README.md \
--from English \
--to "Simplified Chinese" \
--output README-zh.md
neural-cli translate README.md \
--from English \
--to Japanese \
--output README-ja.md
```
### Ollama 接続確認
```bash
neural-cli health
```
**出力例**:
```
✅ Ollama is running at http://localhost:11434
📦 Available models:
- qwen2.5:3b
- llama3:latest
- ...
```
## ⚙️ 高度な設定
### カスタム Ollama URL
```bash
neural-cli translate README.md \
--from English \
--to Japanese \
--output README-ja.md \
--ollama-url http://custom-host:11434
```
### 別モデル使用
```bash
neural-cli translate README.md \
--from English \
--to Japanese \
--output README-ja.md \
--model llama3:latest
```
## 🚫 トラブルシューティング
### エラー: "Failed to connect to Ollama"
**原因**: Ollama が起動していない
**解決策**:
```bash
# Ollama を起動
ollama serve
# 別ターミナルで確認
neural-cli health
```
### エラー: "Model not found: qwen2.5:3b"
**原因**: モデルがダウンロードされていない
**解決策**:
```bash
ollama pull qwen2.5:3b
```
### 翻訳品質が低い
**改善策**:
1. **より大きなモデルを使用**:
```bash
ollama pull qwen2.5:7b
neural-cli translate README.md --model qwen2.5:7b ...
```
2. **プロンプトを調整**: `neural/src-tauri/src/bin/cli.rs``translate_text` 関数を編集
3. **温度パラメータを調整**:
```rust
"temperature": 0.1, // より保守的な翻訳
"temperature": 0.5, // より自由な翻訳
```
## 📊 パフォーマンス
| ファイルサイズ | 翻訳時間 (qwen2.5:3b) | メモリ使用量 |
|:-------------:|:---------------------:|:------------:|
| 5KB README | ~30秒 | ~2GB |
| 10KB README | ~1分 | ~2GB |
| 20KB README | ~2分 | ~2GB |
**システム要件**:
- RAM: 最低4GB (推奨8GB)
- ストレージ: ~2GB (モデル用)
- CPU: Apple Silicon or x86_64
## 🔗 関連リンク
- [Ollama Documentation](https://ollama.com/docs)
- [Qwen2.5 Model](https://ollama.com/library/qwen2.5)
- [Neural CLI Source](~/github/neural)
## 🎯 ワークフロー例
### README 更新フロー
```bash
# 1. README.md を編集
vim README.md
# 2. 翻訳実行
make translate
# 3. 翻訳結果を確認
git diff README-zh.md README-ja.md
# 4. 必要に応じて手動調整
vim README-ja.md
# 5. コミット
git add README.md README-zh.md README-ja.md
git commit -m "docs: update README and translations"
```
### 大規模翻訳バッチ
```bash
# 複数ファイルを一括翻訳
for file in docs/*.md; do
neural-cli translate "$file" \
--from English \
--to Japanese \
--output "${file%.md}-ja.md"
done
```
## 💡 Tips
1. **Ollama をバックグラウンドで常時起動**:
```bash
# macOS (LaunchAgent)
brew services start ollama
```
2. **翻訳前にチェック**:
```bash
neural-cli health # Ollama 接続確認
```
3. **翻訳後の品質チェック**:
- マークダウン構造が保持されているか
- コードブロックが正しいか
- リンクが機能するか
4. **Git diff で確認**:
```bash
git diff README-ja.md | grep -E "^\+|^\-" | less
```