M1のMacとHackintoshとLinuxでOllamaを使ってローカルLLMを実行してみた話
さてさて、ワイルズも最近は落ち着いてきてしまいまして、ハチミツ回収をナタくんたちにお任せしている日々ではありますが、今回は生成系AIをローカルPCで動かしていこうというお … 続きを読む M1のMacとHackintoshとLinuxでOllamaを使ってローカルLLMを実行してみた話
埋め込むにはこの URL をコピーして WordPress サイトに貼り付けてください
埋め込むにはこのコードをコピーしてサイトに貼り付けてください