AI总结
1   LLM大模型
1.1   Ollama安装教程
- 下载Ollama安装包
- 安装路径
- 默认路径:不使用参数,直接运行安装的话,路径为
C:\Users\xxx\AppData\Local\Programs\Ollama
- 自定义路径安装:
OllamaSetup.exe /DIR="D:\ollama"
- 默认路径:不使用参数,直接运行安装的话,路径为
- 修改模型路径
- 新建系统环境变量:变量名:
OLLAMA_MODELS
,变量值:D:\ollama\models
- 若默认模型路径
C:\Users\xxx\.ollama\models
已经拉取下载存在模型文件的话,在添加了系统环境变量之后,将C:\Users\xxx\.ollama\models
路径下的blobs
和manifests
两个子文件夹剪切移动至D:\ollama\models
下即可 - 重启ollama后台进程,运行
ollama list
验证模型迁移是否成功。
- 新建系统环境变量:变量名:
常见的ollama命令:
1 | Usage: |
2   Stable Diffusion
2.1   ComfyUI本地手动安装
- 克隆ComfyUI仓库:
git clone https://github.com/comfyanonymous/ComfyUI.git
- 安装PyTorch:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu126
- 安装依赖:
pip install -r requirements.txt
- SD模型存放路径:
models/checkpoints
- VAE模型存放路径:
models/vae
- 安装ComfyUI-Manager:在
ComfyUI/custom_nodes
路径下运行:git clone https://github.com/ltdrdata/ComfyUI-Manager.git
,并刷新网页。 - 运行ComfyUI:
python main.py --front-end-version Comfy-Org/ComfyUI_frontend@latest
2.2   Stable Diffusion Webui局域网多人共享
默认情况下,Stable Diffusion Webui实现的局域网共享,无法实现多人队列提交,并且SD模型和VAE模型是全局设置,一人改变会导致后台改变,而网页端显示的值并未变化更新。
队列提交/多人共享使用的一些插件实现:
多人共享使用的一些问题讨论:
2.3   Stable Diffusion Webui多卡算力
当前Webui并未支持多卡同时加速计算,通过共享实例进程实现多人使用(队列提交)均衡多卡负载倒是可以实现。
3   Yolo目标检测框架
3.1   毛囊检测
- 数据集:
- 论文资料
4   参考文献
[1] Accelerate doesn't use multi GPU with automatic1111[EB/OL]. https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/13942.