AI绘画入门学习-概述
我从今天开始正式立一个小的目标要开始入门学习AI绘画入门,这一篇文章主要是作为提纲挈领的作用,用于为我自己明确目标并且梳理学习的路径。
最终目标:
达到类似于这样的效果:
嗯,我对于背景没有太大的要求,上面的图来自于这两个账号:
(13) さがわ/sagawa (@sagawa_gawa) / X (13) lilium (@lilydisease) / X
虽然这几张图都有或多或少的问题,但是对于光影的把控已经非常到位了,对于肉感也有非常好的刻画。
目标拆分:
我现在想要将我的目标拆分为几个小的目标,但是我对这个并不熟悉,所以我希望使用ai帮我规划一下学习路线:
1 | 你好,现在请你扮演一位对于AI绘画拥有丰富了解的学姐,现在我希望你能够帮助我入门ai绘画,我拥有 4060ti16G 以及 48G的内存,对于ai绘画的入门应该够用了。 |
DeepSeek的回答: ### AI绘画入门学习路线规划(7天实践版) 硬件说明:你的配置(RTX 4060Ti 16G显存 + 48G内存)完全满足Stable Diffusion本地部署需求,可高效运行模型和插件。
学习目标与阶段拆解
根据你的需求,目标可总结为: 1. 基础生成:能通过文本描述生成指定内容的图片。 2. 风格控制:调整画面风格(如动漫、写实、油画等)。 3. 角色控制:精准生成特定角色(自定义或已有IP)。 4. 场景与动作控制:控制构图、人物动作、场景细节。
学习核心工具:秋葉aaaki整合包(Stable Diffusion WebUI中文版)+ ControlNet插件 + LoRA模型。
每日学习计划
Day 1:安装环境与基础生成
[[AI绘画入门学习-第一天]] 学习目标:完成Stable
Diffusion本地部署,生成第一张AI图片。 - 实践步骤: 1.
下载秋葉整合包(解压密码:bilibili@秋葉aaaki
),安装.NET依赖项,双击启动器一键运行。
2.
打开WebUI界面(默认地址http://127.0.0.1:7860
),输入简单提示词(如“1
girl, masterpiece”),生成测试图。 3.
熟悉界面功能:模型切换、提示词输入区、生成参数(采样方法、迭代步数)。 -
检验成果:成功生成一张基础图片(如猫或人物)。 -
学习资料: - 秋葉整合包安装教程:CSDN博客。
- 界面功能速查表(见下文)。
Day 2:提示词与参数优化
[[AI绘画入门学习-第二天]]
学习目标:掌握提示词编写技巧,调整参数提升生成质量。 -
实践步骤: 1.
提示词公式:使用“主体+细节+风格+质量”结构(如“a knight
in armor, detailed armor texture, dark fantasy style, 8k,
masterpiece”)。 2.
权重控制:用(keyword:1.5)
增强权重,[keyword]
降低权重。
3. 参数调整: -
采样方法:推荐DPM++ 2M Karras
(速度快且稳定)。 -
迭代步数:20-30步(平衡速度与质量)。 - 提示词相关性(CFG
Scale):7-12(值越高越贴近描述,但可能过锐化)。 -
检验成果:生成一张符合复杂提示词描述的图片(如“科幻城市夜景,赛博朋克风格”)。
- 学习资料: - 提示词手册(附常用风格关键词):CSDN资源包。
Day 3:风格控制与模型管理
学习目标:切换不同大模型(底模)和LoRA插件调整画风。
- 实践步骤: 1. 下载模型:从Civitai下载风格化大模型(如动漫风Anything V5
、写实风Realistic Vision
)。
2.
加载模型:将.safetensors
文件放入models/Stable-diffusion
文件夹,在WebUI中切换。
3.
使用LoRA:下载角色/风格LoRA模型(如Genshin Impact角色LoRA
),在提示词中添加触发词(如<lora:genshin_zhongli:0.8>
)。
-
检验成果:用同一提示词生成不同风格的图片(如“古风少女”分别用动漫和写实模型输出)。
- 学习资料: - 模型管理教程:SD
WebUI文档。
Day 4:精准控制角色(ControlNet + LoRA)
学习目标:通过ControlNet插件固定角色形象,结合LoRA定制角色。
- 实践步骤: 1.
安装ControlNet:在秋葉整合包中启用插件,下载预处理器和模型文件。
2.
线稿控制:上传角色线稿,启用ControlNet
的Canny
或Lineart
模式,生成与线稿一致的角色。
3.
训练自定义LoRA:使用Kohya脚本训练个人角色(需准备20-30张角色多角度图片)。
-
检验成果:生成与线稿或自定义LoRA匹配的角色(如“我的自设角色,蓝色长发,机械臂”)。
- 学习资料: - ControlNet教程:B站视频。
Day 5:场景与动作控制(ControlNet进阶)
学习目标:利用ControlNet控制构图、人物姿势、场景深度。
- 实践步骤: 1.
姿势控制:使用OpenPose
预处理器,上传姿势参考图,生成相同动作的角色。
2.
场景控制:用Depth
模式输入场景深度图,控制画面层次感。
3.
分镜提示词:结合分镜描述(如“人物站在悬崖边,左手持剑,右手指向远方”)。
-
检验成果:生成指定动作和场景的图片(如“骑士骑马冲锋,背景是雪山”)。
- 学习资料: - ControlNet高级用法:ComfyUI教程。
Day 6:综合实战与优化
学习目标:结合所有技能生成复杂作品,优化细节。 - 实践步骤: 1. 设计完整场景(如“赛博朋克酒吧,女黑客坐在吧台,霓虹灯闪烁”)。 2. 分阶段调整:先用ControlNet固定构图,再通过提示词细化细节(服装、光影)。 3. 使用高清修复(Hires. fix)提升分辨率(2倍放大)。 - 检验成果:输出一张高完成度的综合作品(含角色、场景、风格)。
Day 7:扩展学习与效率提升
学习目标:探索高级插件(如动态扩散、工作流优化)。 -
推荐方向: -
动态模型转换:生成连续动作帧(如转身、行走)。 -
批量生成:用XYZ脚本生成多组参数对比图。 -
效率工具:安装Tiled Diffusion
插件减少显存占用。
学习资料汇总
类型 | 资源链接 | 用途 |
---|---|---|
整合包 | 秋葉整合包下载 | 本地部署SD |
提示词 | AIGC提示词手册 | 风格与细节控制 |
模型库 | Civitai | 下载大模型与LoRA |
进阶教程 | ControlNet全解 | 精准控制画面 |
检验学习成果的标准
- 基础生成:能通过提示词生成无明显崩坏的图片。
- 风格控制:同一主题可输出3种以上不同风格(如油画、像素风、水墨)。
- 角色控制:生成与线稿或LoRA匹配的角色(误差<10%)。
- 场景与动作:构图符合预设,人物动作自然无畸形。
按此路线实践,一周后可熟练运用AI绘画工具完成创作需求。遇到问题可随时查阅秋葉整合包的社区讨论(B站/CSDN),或私信我进一步解答! 🎨