Open InterpreterをDockerで動かす

環境をダウンロード

githubから環境をダウンロードします。

Dockerイメージの作成

まず、Open Interpreterの環境を含んだDockerイメージを作成します。公式のイメージが公開されていない場合、Pythonや必要なライブラリをインストールするDockerfileを自分で作成する必要がありますが、ここでは作成済みのDockerfileを使用することにします。

Docker-Compose.ymlの作成

docker-compose.ymlファイルを使えば、Docker Composeを使用してOpen Interpreterコンテナを簡単に立ち上げられます。ここでは作成済みのdocker-compose.ymlを使用することにします

アカウント生成とアクセストークンの設定

https://huggingface.coにアクセスしてアカウントを作成します。
https://huggingface.co/google/gemma-2-2bにアクセスして利用規約を読み、問題なければ同意します。
https://huggingface.co/settings/tokensにアクセスしてアクセストークンを生成し、.envファイルに書き込みます

HUGGINGFACE_PASS=inputYourPassword

実行

作成済みのシェルスクリプトを実行します。

./1.build-up.sh

コンテナにログイン

作成済みのシェルスクリプトを実行します

./2.exec.sh

モデルのダウンロード

モデルをダウンロードする例は以下の通りですが、うまく動作していません。わかる方教えてください。

python3 /server/download-model-gemma-2-2b.py

コマンドを実行します

コンテナにログイン後にコマンドを実行します。localオプションをつけて実行しています。そして対話形式でダウンロードするmodelを聞かれるので選択して実行します。

interpreter --local

コメント

タイトルとURLをコピーしました