自分のパソコンで小規模のLLMが使えるかどうかを確認してみたいと思い、Phi-2を動かしてみました。
前提
- WindowsにNVIDIAのドライバーを導入済み
- Ubuntuのインストール、CUDA、cuDNNのインストール済み(open-calm-7bの記事を参照してください。)
手順
Python仮想環境の作成
1.Pythonの仮想環境作成するためのパッケージをインストール
sudo apt install python3.10-venv
2.Pythonの仮想環境の作成
python3 -m venv .venv
3.仮想環境のアクティベート
source .venv/bin/activate
Pythonパッケージのインストール
1.transformersのインストール
pip install git+https://github.com/huggingface/transformers
2.Pytorchのインストール
pip3 install torch torchvision torchaudio
Phi-2の実行
1.コードの作成
vi phi2.py 以下を記載 ---------------- import torch from transformers import AutoModelForCausalLM, AutoTokenizer torch.set_default_device("cuda") model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2", torch_dtype="auto", trust_remote_code=True) tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2", trust_remote_code=True) inputs = tokenizer('''def print_prime(n): """ Print all primes between 1 and n """''', return_tensors="pt", return_attention_mask=False) outputs = model.generate(**inputs, max_length=200) text = tokenizer.batch_decode(outputs)[0] print(text)
2.推論の実行
python phi2.py
コメント