課程簡介

Ollama 大型語言模型部署入門

  • Ollama 功能概述
  • 本地 AI 模型部署的優勢
  • 與雲端 AI 託管解決方案的比較

部署環境設置

  • 安裝 Ollama 及所需依賴項
  • 配置硬體與 GPU 加速
  • Docker 化 Ollama 以實現可擴展部署

使用 Ollama 部署大型語言模型

  • 載入與管理 AI 模型
  • 部署 Llama 3、DeepSeek、Mistral 及其他模型
  • 創建 API 與端點以存取 AI 模型

優化大型語言模型性能

  • 微調模型以提高效率
  • 降低延遲並改善回應時間
  • 管理記憶體與資源分配

將 Ollama 整合至 AI 工作流程

  • 將 Ollama 連接至應用程式與服務
  • 自動化 AI 驅動的流程
  • 在邊緣運算環境中使用 Ollama

監控與維護

  • 追蹤性能並除錯問題
  • 更新與管理 AI 模型
  • 確保 AI 部署的安全性與合規性

擴展 AI 模型部署

  • 處理高工作負載的最佳實踐
  • 為企業用例擴展 Ollama
  • 本地 AI 模型部署的未來發展

總結與下一步

最低要求

  • 具備機器學習和人工智慧模型的基本經驗
  • 熟悉命令列介面和腳本編寫
  • 了解部署環境(本地、邊緣、雲端)

目標受眾

  • 最佳化本地和雲端人工智慧部署的AI工程師
  • 部署和微調大型語言模型(LLM)的機器學習從業者
  • DevOps 管理人工智慧模型整合的專業人員
 14 時間:

人數


每位參與者的報價

Upcoming Courses

課程分類