我把DeepSeek裝進了電腦里:生成能力一般,但確實很好玩
這個春節(jié)假期,要說“紅得發(fā)紫”的科技產(chǎn)品,DeepSeek應該當之無愧。
甚至平時對科技新聞毫不在意的長輩們,也走過來問小雷有沒有聽說過DeepSeek。在我的印象中,上一次AI大模型如此深入人心的,還是OpenAI的ChatGPT。
大紅大紫的背后,是DeepSeek遭受連續(xù)且高強度的網(wǎng)絡攻擊,大部分時候官網(wǎng)都沒辦法正常生成內容,即便關閉聯(lián)網(wǎng)搜索,具備深度推理能力的DeepSeek-R1在線模型還是無法正常使用。好在,在華為等眾多科技公司的支持下,第三方平臺紛紛接入DeepSeek的API,讓穩(wěn)定在線使用成為了可能。
不過這些渠道本質上還是線上訪問,春節(jié)期間休息的小雷,還想玩一把更大的,比如把DeepSeek大模型部署到本地。
于是,在春節(jié)期間,小雷動起手來實踐了一下。
下載慢還得敲代碼,打造“AI電腦”不容易
事實上,無論是不是DeepSeek,想要在自己電腦部署一個本地大模型,執(zhí)行的步驟并不多,難點在于尋找到對應的資源和命令。但需要注意的一點是,本地大模型雖說是已經(jīng)訓練好的成品,但也需要有一定的硬件基礎,體驗才算得上好。
(圖片來自Ollama)
首先,我們可以到Ollama官網(wǎng)下載一個桌面端應用,這個應用相當于一個承載本地大模型的“盒子”,除了DeepSeek之外,你可以在Ollama官網(wǎng)的模型庫中找到許多開源大模型。
Ollama桌面端并不提供任何控制界面,想要將大模型下載到本地,需要在Ollama官網(wǎng)的模型庫當中找到對應模型的代碼,復制到PowerShell(Win+R輸入PowerShell回車打開)當中,就可以執(zhí)行模型數(shù)據(jù)的拉取和安裝。
(圖片來自雷科技)
小雷選的是DeepSeek-R1模型當中的7b版本,也就是帶有70億參數(shù)的DeepSeek-R1模型,占用4.7GB。本地大模型參數(shù)量越大自然是越好,可以提供更精準的語言理解和更高質量的文本生成能力,具備更強的邏輯推理和學習能力,同時知識儲備和泛化能力。但本地大模型依賴電腦計算能力,每個人對大模型的需求不同,不應該“硬來”。
一般來說,運行1.5B參數(shù)的模型最低需要4GB顯存的GPU以及16GB的內存,如果達不到要求,則會強行使用CPU進行計算,硬件負擔更大,且推理的時間會更長。而滿血版的DeepSeek-R1參數(shù)量為671b,體積達到404GB,需要更高規(guī)格的計算硬件才能負擔得起,對于個人部署需求,小雷建議1.5b-8b參數(shù)最為適合。
(圖片來自雷科技)
模型數(shù)據(jù)拉取完畢,系統(tǒng)則會自動執(zhí)行安裝,完成之后就可以直接在PowerShell窗口當中直接調取剛下載的DeepSeek-R1模型,輸入框填寫問題發(fā)送,本地大模型就會推理并生成。
到這里,DeepSeek-R1本地大模型的部署就完成了,理論上大家也可以根據(jù)這樣的方法去部署其它大模型上電腦。
但每次開啟電腦都要打開PowerShell界面才能激活大模型,對于普通用戶而言并不方便,這個時候我們需要給DeepSeek-R1安裝一套更直觀的交互界面。小雷選擇了在Docker應用(圖標是一個藍色海豚)上添加一個Open-WebUI組件,讓DeepSeek-R1可以通過瀏覽器界面交互,并賦予它聯(lián)系上下文的能力。
具體來看,需要先下載Docker桌面端,按照默認的引導完成安裝之后(可跳過賬號注冊等步驟),再次打開PowerShell界面復制并執(zhí)行以下這條指令,小雷幫大家省下去Github查找的時間了:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果是使用NVIDIA GPU的小伙伴,則需要使用以下這條指令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
拉取大模型文件和Open WebUI組件需要一個比較漫長的過程,尤其是網(wǎng)絡不太理想(或者沒有科學上網(wǎng))的環(huán)境,下載器會不斷重試/切換線路,出現(xiàn)下載進度丟失的問題。
安裝完成之后,Docker應用中就會出現(xiàn)一個Open-WebUI的相關組件,把它勾選啟動,再點擊“3000:8080”字樣的鏈接,系統(tǒng)就會跳轉到網(wǎng)頁。
(圖片來自雷科技)
這個時候,你就獲得了一臺帶有AI本地大模型的真正的“AI電腦”了。
小雷體驗了整個部署過程,步驟并不算復雜,系統(tǒng)的數(shù)據(jù)拉取和安裝都是自動化的,主要還是在搜索命令行和安裝資源,以及拉取和安裝組件時花了比較多的時間,Ollama和Docker都可以通過百度搜索到,小雷也在上面提供了對應的跳轉鏈接,動手能力且有興趣的各位可以嘗試嘗試。
當然了,本地部署大模型的方法并不只有這一個,像華為剛推出的ModelEngine等,具備一站式訓練優(yōu)化和一鍵部署的能力,應該是面向企業(yè)端的開發(fā)工具。
離線使用是好事,但生成能力不如云端版
國內的AI大模型應用選擇很多,而且網(wǎng)頁端服務很齊全,那么本地部署的意義在哪里?
前面鋪墊了這么多工作準備本地大模型,關鍵有兩點:第一,本地大模型的所有模型數(shù)據(jù)和對話記錄都是完全離線,存儲在本地,本地推理響應時間更快,也避免了敏感內容泄露。同時在飛機等無網(wǎng)環(huán)境之下,也可以正常使用大模型;第二,本地部署支持各種開源模型,個人用戶可以靈活擴展和切換,也可以根據(jù)自身需求進行優(yōu)化和工具集成,總之操作空間會比線上大模型更多。
不過小雷部署的時間還不長,許多功能還沒摸清楚,這次就簡單討論一下本地大模型的體驗如何。
小雷安裝DeepSeek-R1 7b模型的電腦是機械革命無界14X,輕薄本定位,運行內存為24GB,并沒有配備獨立顯卡這種硬件,不在本地部署大模型的推薦配置范圍內,算是一個“反面教材”。換句話說,DeepSeek-R1 7b模型在這款電腦上,需要更多的推理時間和資源占用才能夠正常生成內容。
(圖片來自雷科技)
像“飯后脹氣”等問題的討論和答案,大模型需要思考30秒-1分鐘才到答案生成階段,期間電腦的負載會達到高峰,CPU和內存幾乎被占滿,可以想象沒有獨立顯卡的電腦帶動本地大模型會比較吃力,小雷認為給出的答案的確有一定的正向參考的作用。
(圖片來自雷科技)
相比于答案,小雷更感興趣的還是DeepSeek擬人化的思考過程,很少有AI助手把思考的過程做到如此擬人化,不管生成的答案是否準確,它的擬人化推理過程似乎也能激起許多普通用戶的興趣。
如果把同樣的問題放在網(wǎng)頁端的DeepSeek大模型,并啟用R1深度思考,直接生成了一個“服務器繁忙”的回饋,密集的訪問的確給DeepSeek造成了不少困擾,這個時候想要正常地和它交談,本地部署能力不一定很強,至少能夠訪問得到。
(圖片來自DeepSeek)
再換一個問題,小雷用了一道經(jīng)典的概率題目向本地DeepSeek-R1 7b發(fā)起提問。網(wǎng)頁端DeepSeek-R1持續(xù)繁忙中,本地DeepSeek可能也有一些手足無措,列舉了多種情況后又自行駁回,最后還混入了之前提問的“飯后脹氣”的內容,畫面顯得相當滑稽。
(圖片來自雷科技)
本地DeepSeek在連續(xù)輸出十多分鐘后也沒有提供答案,考慮到時間有限,小雷還是停止了生成。
只能說數(shù)學題目對于70億參數(shù)的DeepSeek-R1 7b還是過于復雜,在線大模型都不一定能夠輸出準確答案,本地就更成問題了,同時高參數(shù)的本地大模型推理的過程中,電腦的負載壓力也會拉滿。
從開源的角度去分析,本地大模型的擴張性和可玩性會比傳統(tǒng)的線上大模型更好玩。但本地大模型的部署大家也很清楚,操作起來并不是很容易,想要挖掘更多玩法,還是要靠動手能力強的用戶。
本地部署DeepSeek,只是圖個新鮮好玩?
那么,本地大模型值得人手一個嗎?小雷的答案是否定的。
就現(xiàn)階段的生成能力來說,本地大模型很難跟線上大模型媲美,參數(shù)規(guī)模和計算能力擺在那,肯定沒法跟正規(guī)大模型公司背后的算力集群對比。本地大模型適合動手能力強的電腦用戶折騰,深度發(fā)掘的確能帶來一些功能上的便利,畢竟本地大模型在系統(tǒng)底層中運行,能夠更好地與硬件結合。
但作為普通用戶,部署本身也算不上是一件多容易的事情,大模型的周邊配套并沒有想象中成熟,Ollama官網(wǎng)全是英文,Docker應用也不提供中文支持,本身在部署上就有較高的門檻。小雷部署一個本地DeepSeek大模型,只是圖個新鮮,平均生成用時20秒起步,除了可以離線隨處用,普通的生成需求,體驗還是不如在線大模型。
像讀取文件分析、聯(lián)網(wǎng)收集數(shù)據(jù)分析這些能力,還需要用戶自己來折騰,小雷目前部署的DeepSeek還只是個開始。另外如果你有一天不用了想要刪掉大模型數(shù)據(jù),還需要學習步驟來清除,否則它就會一直占用系統(tǒng)盤的存儲空間。
(圖片來自mockup)
在小雷看來,DeepSeek走開源道路,最主要的原因還是為了打響市場影響力,先行占據(jù)市場地位,吸引行業(yè)圍繞它來建立完善的服務體系。拋開Ollama這些不說,國內眾多大模型平臺率先接入DeepSeek的API,就是開源帶來的直接結果。
可以想象,攜帶超高熱度的DeepSeek完成各行業(yè)的應用和滲透,個人本地部署的需求也會變得遠比現(xiàn)在簡單,調起PowerShell界面、敲代碼這些事情甚至都不需要用戶來做。
至于DeepSeek會發(fā)展成什么樣,小雷還無法預測,被行業(yè)高度關注利大于弊,不穩(wěn)定的服務只是短痛,能夠提高市場占比走到普通用戶身邊,滲透到各個設備,到那個時候,本地部署這件事情或許本身就沒有必要了。
來源:雷科技
原文標題 : 我把DeepSeek裝進了電腦里:生成能力一般,但確實很好玩

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?