DeepSeekは新しい人工知能です 誰もが話題にし、大きな騒動を引き起こしている中国。おそらく、すでに Web サイトから、またはモバイル デバイスにアプリをインストールして試したことがあるでしょう。でも、そうしたいですか? DeepSeekをローカルで使用する?この投稿では、Windows 11 コンピューターでこれを行う最も簡単な方法を紹介します。
DeepSeek をローカルで使用することには利点があります。最も重要なのは チャットボットとやり取りするのにインターネット接続は必要ありません。これにより、入力した情報が外部サーバーと共有されることがなくなり、プライバシーが強化されます。興味がありますか? Windows 11 に DeepSeek をローカルにインストールして起動する手順を見てみましょう。
Windows 11でDeepSeekをローカルで使用するために必要なもの
まず、Windows 11 で DeepSeek をローカルで使用するための要件を確認しましょう。方法はいくつかありますが、以下で説明する方法が最も簡単です。これを実現するために、まず必要なのは Windows 10 または Windows 11 コンピューターただし、この手順は Linux および macOS を実行しているコンピューターでも機能します。
第二に、あなたが必要になります ストレージユニットに約5GBの空き容量があること。これは、ほぼすべてのコンピューターにインストールできる DeepSeek の簡易バージョン 7b (4.7 GB) と 8b (4.9 GB) のおおよそのサイズです。ローカルで実行するためにより多くの電力を必要とする、671 GB の 404b などのより大きなバージョンもあります。論理的には、サイズが大きいほど、AI のパフォーマンスと応答性が向上します。
そして第三に、 DeepSeekを実行してモデルとチャットできるプログラムをコンピュータにインストールします. 最も人気のあるもののXNUMXつは オラマ、 複数の人工知能モデルをローカルで実行できるように設計されています。もう一つは LMスタジオは基本的に同じ機能を実行しますが、AI と対話するためのよりユーザーフレンドリーなグラフィカル インターフェイスを提供するという利点があります。
Windows 11でDeepSeekをローカルで使用する手順
さて、それでは Windows 11でDeepSeekをローカルで使用する手順。まず、Ollama を介して実行する手順を確認し、次に LM Studio プログラムを使用して実行します。以下の手順に従って、Windows 10、macOS、GNU Linux で DeepSeek をローカルで使用することもできます。
最初に行うべきことは、 Ollamaのウェブサイトをご覧ください y Windowsオペレーティングシステムのバージョンをダウンロードする。 ollama.comのホームページで、ボタンをクリックしてください ダウンロード ダウンロード ページに移動し、Ollama .exe ファイルをダウンロードします。次に、コンピューターのダウンロード ページに移動し、ファイルを実行してアプリケーションをインストールします。
次のステップは、 Ollamaアプリケーションを起動する。 Windows のスタート メニューでアイコンを見つけてクリックします。このプログラムは他のプログラムのようには開かず、バックグラウンドで実行されることがわかります。ツールバーの左側のメニューでこれを確認します (実行中の他のアプリケーションの横に Ollama アイコンが表示されます)。
コマンドプロンプトからDeepSeekをダウンロードしてインストールする
Ollama をバックグラウンドで実行した状態で、コマンド プロンプトまたは CMD を開きましょう。スタート メニューで検索するか、Windows + R ショートカットを押して開くことができます。これが完了したら、次のコードを記述して、DeepSeek R1 バージョン 7b をダウンロードします。 オルラマプルディープシーク-r1:7b。別のバージョンをインストールする場合は、7b を希望するバージョン番号に置き換えます。
ダウンロードが完了したら、コマンド プロンプトに次のコードを入力して、DeepSeek をインストールして起動します。 オルラマランディープシーク-r1:7b。別のバージョンをダウンロードした場合は、7b を正しいコードに置き換えることを忘れないでください。インストール プロセスにかかる時間は、インターネット接続と実行する DeepSeek のバージョンによって異なります。完了すると、Windows 11 コンピューターでローカルに DeepSeek を使用できるようになります。
この時点で、AIに質問できるようになりました。 コマンドプロンプトでプロンプトを入力する。答えを見る前にラベルが表示されますそして、AI がそれを生成するのに使用する推論について説明します。これは、モバイル デバイス用の DeepSeek アプリで発生することと同様です。コンピューター上で AI をローカルで使用する場合は、必ず最初に Ollama アプリを実行してください。
LM Studio で DeepSeek をローカルで使用する
Ollama で DeepSeek をローカルで使用すると、アプリケーションのリソース消費量が少ないという利点がありますが、平均的なユーザーにとってはあまり直感的ではありません。このような場合は、 グラフィカルインターフェースでDeepSeek AIを実行する LM Studio プログラムを使用します。使用するには、まず公式ウェブサイトからWindows 11対応バージョンをダウンロードする必要があります。 lmstudio.ai.
インストールしたら、LM Studioアプリケーションを開いて 上の検索バーにDeepSeekと入力してください。ダウンロード可能な DeepSeek モデルが表示されます。ご希望のものを選択してボタンをクリックしてください ダウンロード ダウンロードするには。モデルが重くなるほど、ダウンロードに時間がかかり、実行に必要なリソースも大きくなることに注意してください。
DeepSeekモデルをダウンロードしたら、 左側の縦メニューにあるフォルダアイコン LM Studioによる。そこにはダウンロードしたすべての AI モデルが見つかります。 DeepSeekを選択し、ボタンをクリックします モデルのロード 実行を開始し、人工知能と対話します。
LM Studio を使用して Windows 11 でローカルに DeepSeek を使用する それははるかに簡単です。インターフェースは、DeepSeek モバイル アプリやブラウザーから AI を開いたときに表示されるインターフェースと非常によく似ています。プロンプトを入力するためのテキスト フィールドがあり、クエリの一部としてドキュメントやその他のファイルを追加することもできます。 Ollama を好むか、LM Studio グラフィカル インターフェイスを使い続けるかにかかわらず、DeepSeek はローカルかつオフラインで使用します。このモダリティが提供するすべての利点を活用してください。