天天见闻LLM,大模型究竟是什么?
CPU vs GPU...傻傻分不清?
时至今日,AI绘画到底有多么强大?
那么传神的AI绘画,我们自己也可以创作吗?
......
5月17日下午,第22期信息达人分享微沙龙特别策划:
属于你的AI来啦——带你走近大模型!
为大家带来两个极具时代意义的主题分享:
Ⅰ. 大模型的算力基础
Ⅱ. AI绘画的技术发展与实践分享
自1956年达特茅斯会议至今,人工智能经历三个主要发展阶段,呈现从手工总结到自动学习、从离散符号到连续参数、从专用智能到通用智能趋势。
随着ChatGPT的问世,越来越多的大模型出现并逐渐被我们了解、认识和使用。而大模型的训练需要强大的算力基础,因此,大模型的算力也成为大家关注的焦点。
2009年Nvidia演示Geforce GTX280现场(来自腾讯视频)
CPU绘制的笑脸与GPU绘制的蒙娜丽莎,差别一目了然~
那么,大模型的训练以及超级计算机又是怎样的呢?
1993-2018年全球超算TOP500入围榜(来自腾讯视频)
接下来是
AI绘画主题分享
,李老师给大家分享了从人工智能绘画的发展历程,到AI绘画的多种工具,以及重点给大家分享的Stable Diffusion的下载、配置和具体的使用。丰富的案例和现场面对面的指导,令每一位参与沙龙的读者都做出了自己喜爱的个性图片!
李老师为大家整理了完整的讲义,我们放在图书馆信息学科导航的“信息达人”专栏页面中,压缩包解压码是本期活动的年月日(8位数字),链接请见文末“达人”锦囊。
-
进入Stable Diffusion,选择喜欢的模型
-
在“文生图”页面输入提示词和反向提示词
-
向下来到ControlNet,完成Unit0~Unit2的各项参数选择并生成图片
-
对不满意的图片可以通过添加不同的提示词/反向提示词等方式进行调整,通常情况下每一次生成的图片都是随机不同的,所以当得到满意的图片时请一定记得及时保存~
小编选择喜欢的二次元模型,并输入了一些提示词和反向提示词
把自己的照片上传在单张图像栏的左侧
ControlNet Unit 0的控制网络类型,我们选择“线条”
第一次训练生成的图片如上(年轻了许多呀~)
同理操作,完成ControlNet Unit 1的设置和图片生成,
控制网络类型可以选择Depth或NormalMap
第三次训练我们在单张图像栏左侧上传的图片不是自己的照片了。因为我要把头像做成梵高风,所以我上传了梵高的经典作品。
注意:这里控制网络类型我们选择IP-Adapter
哇哦!这就是AI为我生成的梵高风头像
再试试我超喜欢的拉斐尔~
请问,任何一台电脑都可以学习使用StableDiffusion吗?
StableDiffusion对显卡是有一定要求的,我们的电脑应该有独立显卡。
请问,如果没有配置强大的GPU做算力支撑,是不是就不能运行StableDiffusion啦?
用CPU也可以做AI绘画,但是GPU的算力的确有明显的优势,可能CPU需要20分钟才成生成的图片,GPU几秒钟就搞定了。