AI绘画入门学习-概述

# 未完成
# AI绘画

我从今天开始正式立一个小的目标要开始入门学习AI绘画入门,这一篇文章主要是作为提纲挈领的作用,用于为我自己明确目标并且梳理学习的路径。

最终目标:

达到类似于这样的效果:

嗯,我对于背景没有太大的要求,上面的图来自于这两个账号:

(13) さがわ/sagawa (@sagawa_gawa) / X (13) lilium (@lilydisease) / X

虽然这几张图都有或多或少的问题,但是对于光影的把控已经非常到位了,对于肉感也有非常好的刻画。

目标拆分:

我现在想要将我的目标拆分为几个小的目标,但是我对这个并不熟悉,所以我希望使用ai帮我规划一下学习路线:

1
2
3
4
5
6
7
8
9
10
你好,现在请你扮演一位对于AI绘画拥有丰富了解的学姐,现在我希望你能够帮助我入门ai绘画,我拥有 4060ti16G 以及 48G的内存,对于ai绘画的入门应该够用了。
我现在的目标是:
1. 能够使用ai绘画为我生成指定内容的图片
2. 能够通过某种方式来调整图片生成的画风
3. 能够使用通过某种方式来精准的控制画面中的角色(比如说我自己设定的角色或者其他动漫游戏作品中的角色)
4. 能够通过某种方式精确的控制画面中的场景以及人物的动作

我知道我上面的目标的描述可能会有些模糊,这是因为毕竟对于ai绘画来说是一个门外汉,我希望你能够帮我梳理并总结我的目标,我现在正在计划按照秋葉aaaki的教程来进行学习,但是这位大佬并没有给出详细的学习路线,我希望我能够在一周的时间内快速入门并且达到上述目标,我每天能够抽出至少2个小时的时间用于学习这方面的知识。另外,我认为最好的学习方式就是实践,希望你能够尽可能让我在实践的过程中学习。

我希望你能够针对上述我的目标以及学习计划,为我规划一条路线清晰的学习路线,告诉我每个阶段的学习资料,学习目标,如何检验我的学习成果,非常感谢!

DeepSeek的回答: ### AI绘画入门学习路线规划(7天实践版) 硬件说明:你的配置(RTX 4060Ti 16G显存 + 48G内存)完全满足Stable Diffusion本地部署需求,可高效运行模型和插件。


学习目标与阶段拆解

根据你的需求,目标可总结为: 1. 基础生成:能通过文本描述生成指定内容的图片。 2. 风格控制:调整画面风格(如动漫、写实、油画等)。 3. 角色控制:精准生成特定角色(自定义或已有IP)。 4. 场景与动作控制:控制构图、人物动作、场景细节。

学习核心工具:秋葉aaaki整合包(Stable Diffusion WebUI中文版)+ ControlNet插件 + LoRA模型。


每日学习计划

Day 1:安装环境与基础生成

[[AI绘画入门学习-第一天]] 学习目标:完成Stable Diffusion本地部署,生成第一张AI图片。 - 实践步骤: 1. 下载秋葉整合包(解压密码:bilibili@秋葉aaaki),安装.NET依赖项,双击启动器一键运行。 2. 打开WebUI界面(默认地址http://127.0.0.1:7860),输入简单提示词(如“1 girl, masterpiece”),生成测试图。 3. 熟悉界面功能:模型切换、提示词输入区、生成参数(采样方法、迭代步数)。 - 检验成果:成功生成一张基础图片(如猫或人物)。 - 学习资料: - 秋葉整合包安装教程:CSDN博客。 - 界面功能速查表(见下文)。


Day 2:提示词与参数优化

[[AI绘画入门学习-第二天]] 学习目标:掌握提示词编写技巧,调整参数提升生成质量。 - 实践步骤: 1. 提示词公式:使用“主体+细节+风格+质量”结构(如“a knight in armor, detailed armor texture, dark fantasy style, 8k, masterpiece”)。 2. 权重控制:用(keyword:1.5)增强权重,[keyword]降低权重。 3. 参数调整: - 采样方法:推荐DPM++ 2M Karras(速度快且稳定)。 - 迭代步数:20-30步(平衡速度与质量)。 - 提示词相关性(CFG Scale):7-12(值越高越贴近描述,但可能过锐化)。 - 检验成果:生成一张符合复杂提示词描述的图片(如“科幻城市夜景,赛博朋克风格”)。 - 学习资料: - 提示词手册(附常用风格关键词):CSDN资源包


Day 3:风格控制与模型管理

学习目标:切换不同大模型(底模)和LoRA插件调整画风。 - 实践步骤: 1. 下载模型:从Civitai下载风格化大模型(如动漫风Anything V5、写实风Realistic Vision)。 2. 加载模型:将.safetensors文件放入models/Stable-diffusion文件夹,在WebUI中切换。 3. 使用LoRA:下载角色/风格LoRA模型(如Genshin Impact角色LoRA),在提示词中添加触发词(如<lora:genshin_zhongli:0.8>)。 - 检验成果:用同一提示词生成不同风格的图片(如“古风少女”分别用动漫和写实模型输出)。 - 学习资料: - 模型管理教程:SD WebUI文档


Day 4:精准控制角色(ControlNet + LoRA)

学习目标:通过ControlNet插件固定角色形象,结合LoRA定制角色。 - 实践步骤: 1. 安装ControlNet:在秋葉整合包中启用插件,下载预处理器和模型文件。 2. 线稿控制:上传角色线稿,启用ControlNetCannyLineart模式,生成与线稿一致的角色。 3. 训练自定义LoRA:使用Kohya脚本训练个人角色(需准备20-30张角色多角度图片)。 - 检验成果:生成与线稿或自定义LoRA匹配的角色(如“我的自设角色,蓝色长发,机械臂”)。 - 学习资料: - ControlNet教程:B站视频


Day 5:场景与动作控制(ControlNet进阶)

学习目标:利用ControlNet控制构图、人物姿势、场景深度。 - 实践步骤: 1. 姿势控制:使用OpenPose预处理器,上传姿势参考图,生成相同动作的角色。 2. 场景控制:用Depth模式输入场景深度图,控制画面层次感。 3. 分镜提示词:结合分镜描述(如“人物站在悬崖边,左手持剑,右手指向远方”)。 - 检验成果:生成指定动作和场景的图片(如“骑士骑马冲锋,背景是雪山”)。 - 学习资料: - ControlNet高级用法:ComfyUI教程


Day 6:综合实战与优化

学习目标:结合所有技能生成复杂作品,优化细节。 - 实践步骤: 1. 设计完整场景(如“赛博朋克酒吧,女黑客坐在吧台,霓虹灯闪烁”)。 2. 分阶段调整:先用ControlNet固定构图,再通过提示词细化细节(服装、光影)。 3. 使用高清修复(Hires. fix)提升分辨率(2倍放大)。 - 检验成果:输出一张高完成度的综合作品(含角色、场景、风格)。


Day 7:扩展学习与效率提升

学习目标:探索高级插件(如动态扩散、工作流优化)。 - 推荐方向: - 动态模型转换:生成连续动作帧(如转身、行走)。 - 批量生成:用XYZ脚本生成多组参数对比图。 - 效率工具:安装Tiled Diffusion插件减少显存占用。


学习资料汇总

类型 资源链接 用途
整合包 秋葉整合包下载 本地部署SD
提示词 AIGC提示词手册 风格与细节控制
模型库 Civitai 下载大模型与LoRA
进阶教程 ControlNet全解 精准控制画面

检验学习成果的标准

  • 基础生成:能通过提示词生成无明显崩坏的图片。
  • 风格控制:同一主题可输出3种以上不同风格(如油画、像素风、水墨)。
  • 角色控制:生成与线稿或LoRA匹配的角色(误差<10%)。
  • 场景与动作:构图符合预设,人物动作自然无畸形。

按此路线实践,一周后可熟练运用AI绘画工具完成创作需求。遇到问题可随时查阅秋葉整合包的社区讨论(B站/CSDN),或私信我进一步解答! 🎨


Reference