發現新技術:DeepSeek R1 AI-與Ollama&OpenWebui集成的本地LLM集成


人工智能的先進競賽(AI)正在進行中,DeepSeek R1是該領域的領導者。本指南不依靠基於雲的黑匣子,而是揭示瞭如何使用Ollama和OpenWebui在自己的硬件上利用中國的突破性語言模型。無論您是AI研究人員還是自我存儲愛好者,都可以準備探索當地的公司理論能力。

為什麼DeepSeek R1塑造了AI開源的風景

由中國先驅DeepSeek開發的DeepSeek R1代表了機器理論的量子飛躍:
– 解決人類的問題:將任務分解為每個步驟的過程。
– 潛在的AGI:OpenAI封閉源模型的競爭對手基準。
– 硬件靈活性:在消費者GPU上運行的變化。
– 透明設計:打開寄養學習合作的重量。

與不透明公司的AI不同,DeepSeek R1的建築邀請了監督,今天的秘密AI戰鬥很少見。

逐步:通過Ollama和OpenWebui部署DeepSeek R1

部署DeepSeek R1的先決條件:
– 已安裝了Dockerized Ollama + OpenWebuis。
-NVIDIA GPU(2080 TI或推薦新的)。
-14B參數16GB+ VRAM。

安裝工作過程包括啟動OpenWebui接口,在模型庫中搜索“ DeepSeek-R1”,選擇您的變體(7b,14b等)下載head。

深度硬件:您需要順利運行DeepSeek

檢查下表以獲取有關模型大小,最小GPU,VRAM和相應速度的信息。

-7B:RTX 3060,8GB VRAM,90-110通知代碼/秒。
-8B:RTX 2080 TI,11GB VRAM,70-85通知代碼/秒。
-14B:RTX 3090,24GB VRAM,40-50通知代碼/秒。

模型解碼模型:從蒸餾到全脂R1

了解模型中“ B”的元素:
-7b/8b:理想的真實時間聊天機器人。
-14B:複雜的數據分析。
-R1原始(300b+):僅研究實驗室。

蒸餾是DeepSeek微型型號的獨家技術,同時保留了95%的可能性。

“思考”的思維特徵:為什麼透明度很重要

當DeepSeek顯示“思考”通知時,這不僅是複雜的,而且可以在行動中解釋。它有助於公開邏輯以做出決策,刪除模型幻覺並教給用戶有關AI意識的知名度。

高級:Run DeepSeek R1原創(不適合弱心)

儘管Ollama的蒸餾模型供實際使用,但挑剔的研究人員可以嘗試運行具有特定要求的整個300B+ R1參數。

為什麼這對於誰的未來很重要

DeepSeek的開放體重策略以加速AGI開發三次:
– 學習訪問:全球大學目前正在探索R1的體系結構。
– 本地控制:忽略地緣政治雲服務的局限性。
– 道德審計:任何人都可以檢查錯誤/安全問題。

從今天開始:加入革命AI存儲

– 部署:監視Ollama設置指南。
– 實驗:比較模型輸出7b vs 14b。
– 貢獻:通過DeepSeek的GitHub發送改進。

最後的裁決:DeepSeek R1誇大了嗎?

DeepSeek R1的優勢包括在邏輯難題中優於美洲駝3,對班級AI的前所未有的透明度以及從業餘愛好人員到業務硬件的能力。它的缺點包括針對非技術用戶的傾斜學習曲線和有限的多語言支持(中文/英語)。

在大多數AI突破發生在閉門後面的世界中,DeepSeek R1是革命性的例外。通過將開源倫理與高級績效結合,它不僅是AI模型,而且是民主化人工智能的聲明。您的動作:拖動DeepSek-R1:8B今天的模型和明天的AI經驗。

民主化AI的競賽在這裡, DeepSeek R1 領先費用。忘記依靠基於雲的黑匣子;本教程揭示瞭如何使用Ollama和OpenWebui在自己的硬件上利用中國的突破性語言模型。無論您是AI研究人員還是自我存儲愛好者,都可以準備解鎖本地公司級別的理論能力。

為什麼DeepSeek R1塑造了AI開源的風景

R1模型(於2025年1月出版)由中國的AI Pioneer Deepsek開發,代表了推理理論的量子飛躍:

  • 像人一樣解決問題:將任務分解為每個步驟的過程
  • 潛在的AGI:OpenAI封閉源模型的競爭對手基準
  • 硬件靈活性:消費者GPU的蒸餾變體
  • 設計透明度:打開學習合作的體重寄養

與不透明公司的AI不同,DeepSeek R1的建築邀請了監督,這是當今秘密AI鬥爭的罕見事物。

逐步:通過Ollama和OpenWebui部署DeepSeek R1

先決條件

  • Dockerized Ollama + OpenWebuis設置
  • GPU NVIDIA(2080 TI或推薦新的)
  • 參數16GB+ VRAM 14B

設置工作過程

  1. 介紹OpenWebui的界面
  2. 在模型庫中搜索“ DeepSeek-r1”
  3. 選擇您的變體(7b,14b等)
  4. 點擊 剪刀 開始下載
Pro Tip: Start with the 8B model for optimal speed/accuracy balance on mid-tier GPUs.

深度硬件:您需要順利運行DeepSeek

型號大小 最低GPU vram 速度(通知代碼/秒)
7b RTX 3060 8GB 90-110
8b RTX 2080 TI 11GB 70-85
14b RTX 3090 24GB 40-50

核對現實世界:2080 Ti在8B型號上用78/秒的通知代碼超頻,可以為雲中的API準備好!

模型解碼模型:從蒸餾到全脂R1

了解B的元素”

  • 7b/8b:理想的真實 – 時間聊天機器人
  • 14b:複雜數據分析
  • R1原始(300b+):研究實驗室指標

蒸餾解釋

DeepSeek的獨家技術將40個時間模型最小化,同時保留了95%的可能性。將其視為被壓縮而不會失去質量的方式。

思維功能”:為什麼透明度很重要

當DeepSeek顯示時:

(THINKING) Analyzing user query...
(THINKING) Cross-referencing training data...

它不僅是微妙的,而且是 誰可以解釋 在行動中:

  1. 邏輯暴露決策
  2. 有助於刪除模型幻覺
  3. 教用戶關於AI

高級:Run DeepSeek R1原創(不適合弱心)

雖然Ollama的蒸餾模型供實際使用,但挑剔的研究人員可以嘗試運行整個參數300B+ R1:

要求

  • 8x A100 GPU(每個VRAM 80GB)
  • 定制尾聲
  • 耐心(每次回應3-5分鐘)
Warning: Unsloth’s experimental workflow reduces VRAM needs by 70%, but stability isn’t guaranteed.

為什麼這對於誰的未來很重要

DeepSeek的開放體重策略以加速AGI開發三次:

  1. 研究訪問:世界各地的大學目前正在探索R1的建築
  2. 本地控制:忽略地緣政治雲服務的局限性
  3. 道德審計:任何人都可以檢查錯誤/安全問題

從今天開始:加入革命AI存儲

  1. 部署: 跟著我們 設置Ollama的說明
  2. 實驗:比較模型輸出7b vs 14b
  3. 貢獻:通過 DeepSeek的Github

最後的裁決:DeepSeek R1誇大了嗎?

優勢

  • 邏輯謎語中傑出的美洲駝3
  • 前所未有的透明度是針對班級的
  • 可以從業餘愛好者擴展到業務硬件

缺點

  • 非技術用戶的坡度學習曲線
  • 支持有限的多語言(中文焦點/英語)

在大多數AI突破發生在閉門後面的世界中,DeepSeek R1是革命性的例外。通過將開源倫理與高級績效結合,它不僅是AI模型,而且是民主化人工智能的聲明。

你的動作: 拖 deepseek-r1:8b 今天的模型和明天的經驗。

< DIV類=“懷孕”>

< H1>結論DeepSeek R1 AI:與Ollama&OpenWebui一起部署本地LLM正在為高級AI民主黨競賽打開了大門。通過使用Ollama和OpenWebui,您可以在自己的硬件上利用中國的突破性語言模型。這不僅對人工智能研究人員來說很有趣,而且是自我存儲愛好者在當地企業層面發現理論能力的機會。
查看詳細信息並註冊


Source link


探索更多來自 Gizmo Review 的內容

訂閱後即可透過電子郵件收到最新文章。

發表回覆

探索更多來自 Gizmo Review 的內容

立即訂閱即可持續閱讀,還能取得所有封存文章。

Continue reading