環境をダウンロード
githubから環境をダウンロードします。
Dockerイメージの作成
まず、Open Interpreterの環境を含んだDockerイメージを作成します。公式のイメージが公開されていない場合、Pythonや必要なライブラリをインストールするDockerfileを自分で作成する必要がありますが、ここでは作成済みのDockerfileを使用することにします。
Docker-Compose.ymlの作成
docker-compose.yml
ファイルを使えば、Docker Composeを使用してOpen Interpreterコンテナを簡単に立ち上げられます。ここでは作成済みのdocker-compose.ymlを使用することにします
アカウント生成とアクセストークンの設定
https://huggingface.coにアクセスしてアカウントを作成します。
https://huggingface.co/google/gemma-2-2bにアクセスして利用規約を読み、問題なければ同意します。
https://huggingface.co/settings/tokensにアクセスしてアクセストークンを生成し、.envファイルに書き込みます
HUGGINGFACE_PASS=inputYourPassword
実行
作成済みのシェルスクリプトを実行します。
./1.build-up.sh
コンテナにログイン
作成済みのシェルスクリプトを実行します
./2.exec.sh
モデルのダウンロード
モデルをダウンロードする例は以下の通りですが、うまく動作していません。わかる方教えてください。
python3 /server/download-model-gemma-2-2b.py
コマンドを実行します
コンテナにログイン後にコマンドを実行します。localオプションをつけて実行しています。そして対話形式でダウンロードするmodelを聞かれるので選択して実行します。
interpreter --local
コメント