最近の Github で人気のあるプロジェクトを共有します。原理は比較的シンプルですが、使いやすいです!
Pandora#
このプロジェクトは API を介して、ローカルで Web 版の ChatGPT を構築することができます。まさに曲線救国です。
インストール - ローカル Python 版#
まず、作者の推奨に従って Python 環境をインストールしてください。皆さんには conda を使用して新しい環境を作成することをお勧めします。
conda create -n gpt python=3.7
次に、このプロジェクトをインストールすることができます。このプロジェクトには 2 つのモードがあります。1 つはコマンドラインモード、もう 1 つはローカルウェブモードです。
conda activate gpt
pip install pandora # こちらはコマンドラインモードです
pip install pandora-cloud # こちらはウェブ版です
トークンの取得#
このプロジェクトでは、登録済みアカウントのウェブログイントークンを使用してローカルデプロイを実現します。(もちろん API を使用することもできますが、私の国内のクレジットカードでは使用できないため、一時的にこの方法が良いとされています。)
作者がここで構築したサービスを使用して、自分のアカウントのトークンを取得してください(まず公式サイトにログインし、ここにアクセスすると、自分のアクセストークンが取得できます)。自分のトークンを保存しておき、1 ヶ月間使用できると言われています。
起動#
コマンドラインに戻ります
pandora -t <token_file> # ローカルコマンドライン版のchatGPTが起動します。Enterキーを2回押して会話を送信します
pandora-cloud # ウェブ版が起動します。http://127.0.0.1:8018にアクセスし、トークンファイルでログインしてください
インストール - Docker 版#
Docker バージョンでは、現時点ではコマンドラインのみが成功しています。
docker pull pengzhile/pandora
docker run -it -e PANDORA_ACCESS_TOKEN="token" -name pandora pengzhile/pandora
もし、作者のプロキシ API が自分のローカルで禁止されている場合#
Cloudflare を使用してプロキシを設定してください。
- Cloudflare にログインします
Workers
に入り、Create a Worker
をクリックします- 新しい画面に以下のコードを貼り付けます
export default {
async fetch(request, env) {
const url = new URL(request.url);
url.host = 'ai.fakeopen.com';
return fetch(new Request(url, request))
}
}
Save and deploy
をクリックします- その後、Docker を使用して作成する際には、次のパラメータを使用できます:
docker run -it -e PANDORA_ACCESS_TOKEN="token" -e CHATGPT_API_PREFIX="https://your.worker.address" -name pandora pengzhile/pandora
私の Mac の問題かもしれませんが、Docker を使用してウェブ版サービスを作成する際に、ホストマシンからコンテナ内に接続できません。解決策がある場合は教えていただけると助かります。