すべてのフレームを美しく表現する
動画/音声ファイル向けのスマート字幕生成・多言語翻訳ソリューション
このアプリケーションは、オリジナルの VideoSubtitleGenerator コマンドラインツールのすべての機能を保持しつつ、以下の機能強化を行っています:
- 動画/音声/字幕ファイルの一括処理
- 生成された字幕またはインポートされた字幕の翻訳機能
- ローカル処理により、動画のアップロード不要でプライバシーを保護しながら高速処理を実現
- 複数の翻訳サービスをサポート:
- 🎯 カスタムパラメータ設定: コードを変更せずに UI から直接 AI モデルのパラメータを設定可能
- v2.5.3-release-brief.md
- カスタム HTTP ヘッダーとリクエストボディパラメータをサポート
- 複数のパラメータタイプをサポート(String、Float、Boolean、Array、Object、Integer)
- リアルタイムパラメータ検証とエラーフィードバック
- 設定のエクスポート/インポート機能
- 様々なメディアプレーヤーとの互換性のためのカスタム字幕ファイル命名
- 翻訳字幕内容の柔軟な設定:翻訳のみまたは原文+翻訳を選択可能
- ハードウェアアクセラレーションをサポート
- NVIDIA CUDA(Windows/Linux)
- Apple Core ML(macOS M シリーズチップ)
- ローカルにインストールされた
whisperコマンドの実行をサポート - 同時実行タスク数のカスタマイズが可能
本アプリケーションには GPU アクセラレーションパック管理機能が内蔵されており、CUDA Toolkit を手動でインストールする必要はありません。
- インストール後、「設定 → GPU アクセラレーション」でアプリが自動的に GPU を検出し、適切なアクセラレーションパックを推奨します
- 推奨されたパックをダウンロードするだけで GPU アクセラレーションが有効になります。対応バージョン:CUDA 11.8.0 / 12.2.0 / 12.4.0 / 13.0.2
- アクセラレーション有効後にクラッシュする場合は、別のバージョンに切り替えるか、GPU アクセラレーションを無効にしてください
バージョン 1.20.0 から、Apple Silicon で Core ML がサポートされ、より高速な音声認識を提供します。Apple Silicon チップを使用している場合は、mac arm64 バージョンのリリースパッケージをダウンロードしてください。自動的に Core ML アクセラレーションが有効になります。
このプロジェクトは、百度翻訳、火山エンジン翻訳、DeepLX、ローカル Ollama モデル、DeepSeek、OpenAI スタイルの API など、様々な翻訳サービスをサポートしています。これらのサービスを使用するには、適切な API キーまたは設定が必要です。
百度翻訳や火山エンジンなどのサービスの API キー取得方法については、https://bobtranslate.com/service/ を参照してください。優れたソフトウェアツールである Bob が提供する情報に感謝します。
AI 翻訳では、翻訳結果はモデルとプロンプトに大きく影響されるため、様々なモデルとプロンプトを試して、自分に合った組み合わせを見つけることができます。AI 統合プラットフォーム DeerAPI をお試しいただくことをお勧めします。複数のプラットフォームで約 500 種類のモデルをサポートしており、翻訳に適したモデルを選択できます。
SmartSub は各 AI 翻訳サービスのカスタムパラメータ設定をサポートしており、モデルの動作を精密に制御できます:
- 柔軟なパラメータ設定: コードを変更せずにインターフェースから直接カスタムパラメータを追加・管理
- パラメータタイプサポート: String、Float、Boolean、Array、Object、Integer パラメータタイプをサポート
- リアルタイム検証: パラメータ変更時にリアルタイムで検証し、無効な設定を防止
- 設定管理: チーム共有やバックアップのための設定エクスポート/インポートをサポート
動画や音声から字幕を生成するには、whisper モデルを使用する必要があります。Whisper モデルには様々な精度と処理速度があります。
- より大きなモデルは精度が高いですが、より強力な GPU が必要で、処理速度が遅くなります
- ローエンドデバイスや GPU では、
tinyまたはbaseモデルの使用をお勧めします。精度は低くなりますが、処理速度が速く、メモリ使用量が少なくなります - ミッドレンジデバイスでは、
smallまたはbaseモデルから始めて、精度とリソース消費のバランスを取ってください - 高性能 GPU/ワークステーションでは、より高い精度のために
largeモデルを使用してください - 元の音声/動画が英語の場合は、英語処理に最適化された
en付きモデルを使用してください - モデルサイズを気にする場合は、
q5またはq8モデルの使用を検討してください。精度がわずかに低下する代わりに、より小さなサイズを提供します
お使いのシステムとチップに基づいて適切なパッケージをダウンロードしてください。GPU アクセラレーションパックはインストール後にアプリ内でダウンロードできます。
| システム | チップ | ダウンロードパッケージ | 説明 |
|---|---|---|---|
| Windows | x64 | windows-x64 | NVIDIA ユーザーはアプリ内でアクセラレーションパックをダウンロード可能 |
| Mac | Apple | mac-arm64 | Core ML アクセラレーション自動有効 |
| Mac | Intel | mac-x64 | GPU アクセラレーション非対応 |
| Linux | x64 | linux-x64 | NVIDIA ユーザーはアプリ内でアクセラレーションパックをダウンロード可能 |
macOS ユーザーは Homebrew で素早くインストールでき、チップタイプ(Intel/Apple Silicon)に基づいて正しいバージョンが自動的にダウンロードされます:
# tap を追加(一度だけ必要)
brew tap buxuku/tap
# インストール
brew install --cask smartsubアップグレードとアンインストール:
# 最新バージョンにアップグレード
brew upgrade --cask smartsub
# アンインストール
brew uninstall --cask smartsub- リリースページに移動し、お使いのオペレーティングシステム用の適切なパッケージをダウンロードします
- または、クラウドディスク Quark を使用して対応するバージョンをダウンロードします
- プログラムをインストールして実行します
- モデルをダウンロードします
- アプリケーション内で希望の翻訳サービスを設定します
- 処理したい動画または字幕ファイルを選択します
- 関連パラメータを設定します(例:ソース言語、ターゲット言語、モデル)
- 処理タスクを開始します
1️⃣ プロジェクトをローカルにクローン
git clone https://github.com/buxuku/SmartSub.git2️⃣ yarn install または npm install で依存関係をインストール
cd SmartSub
yarn installWindows / Linux、または Mac Intel プラットフォームの場合は、https://github.com/buxuku/whisper.cpp/releases/tag/latest から node ファイルをダウンロードし、addon.node にリネームして extraResources/addons/ ディレクトリに配置してください。
3️⃣ 依存関係をインストール後、yarn dev または npm run dev を実行してプロジェクトを起動
yarn devモデルファイルのサイズが大きいため、ソフトウェア経由でのダウンロードが困難な場合があります。モデルを手動でダウンロードしてアプリケーションにインポートできます。モデルをダウンロードするための 2 つのリンクがあります:
-
国内ミラー(ダウンロード速度が速い): https://hf-mirror.com/ggerganov/whisper.cpp/tree/main
-
Hugging Face 公式ソース: https://huggingface.co/ggerganov/whisper.cpp/tree/main
Apple Silicon チップを使用している場合は、対応する encoder.mlmodelc ファイルもダウンロードする必要があります。ダウンロード後、「モデル管理」ページの「モデルをインポート」機能を使用してモデルファイルをアプリケーションにインポートできます。(q5 または q8 シリーズのモデルの場合、このファイルをダウンロードする必要はありません)
ダウンロード後、「モデル管理」ページの「モデルをインポート」機能を使用してモデルファイルをアプリケーションにインポートできます。または、モデルファイルをモデルディレクトリに直接コピーすることもできます。
インポート手順:
- 「モデル管理」ページで「モデルをインポート」ボタンをクリックします。
- 表示されるファイルセレクタで、ダウンロードしたモデルファイルを選択します。
- インポートを確認すると、モデルがインストール済みモデルリストに追加されます。
ターミナルで以下のコマンドを実行してください:
sudo xattr -dr com.apple.quarantine /Applications/SmartSub.appその後、アプリケーションを再度実行してみてください。
👏🏻 このプロジェクトの改善にご協力いただける Issue や Pull Request を歓迎します!
⭐ このプロジェクトが役立つと思ったら、スターを付けていただくか、コーヒーをおごってください(GitHub アカウントを備考欄にご記入ください)。
👨👨👦👦 使用上の問題がある場合は、WeChat コミュニティグループに参加して一緒に交流・学習しましょう。
| Alipay 寄付コード | WeChat 寄付コード | WeChat コミュニティグループ |
|---|---|---|
![]() |
![]() |
![]() |
このプロジェクトは MIT ライセンスの下でライセンスされています。詳細については LICENSE ファイルを参照してください。




