当前位置:首页 > 每日看点 > 正文内容

comfyui如何学习?如何使用?

卡卷网10个月前 (01-08)每日看点180

最近在Linux的部署了ComfyUI,遇到一些小坑来记录下。

如果你遇到报错是:<>AttriuteError:'NoneType'ojecthasnoattriute'tokenize',建议看看这个文章。

<>另外,如果你找不到TripleCLIPLoader,也可以看看这个文章!!

ComfyUI是一个开源的、基于节点的图形用户界面(GUI),用于生成图像。它利用诸如StaleDiffusion等扩散模型,允许用户通过连接不同功能的节点来构建图像生成的工作流程。每个节点代表一个特定的功能模块,如加载模型、输入提示词、设置采样器等。所以相当于,他把模型整个调用的过程可视化了一下,只要修改图上的节点就行,如果你体验过一些机器学习深度学习的,那你肯定也熟悉这种作方式。

首ComfyUI的Githu链接:s://githu/comfyanonymous/ComfyUI

如果你也是Linux的,windows也是一样,那咱们就继续往下看安装流程:

按照GitHu里描述的(下图)

<>第一步,你可以anaconda开一个新的python虚拟环境,python版本是3.12。

<>第二步,Gitclone这个项目

<>第三步,将模型文件ckpt或safetensor放到models/checkpoints文件夹

stailityai在huggingface上给出了最新的stalediffusion3.5模型,你需要先提供自己的信息,得到获取模型的许可申请,然后去Filesandversions栏目下,找到你的模型:s://huggingface.co/stailityai/stale-diffusion-3.5-large/tree/main;如果你发现无法下载,那就是你没有申请access呢。

然后下载这个sd3.5_large.safetensors

<>第四步,VAE的文件放到models/vae文件夹

VAE的文件在:s://huggingface.co/stailityai/stale-diffusion-3.5-large/tree/main/vae

下载了这俩文件直接放文件夹就行。

<>这四步都整完以后,如果你是NVIDIA的GPU如4090啦,A100啦,你就继续下面这两步pipinstall,如果是AMD的GPU人家也有写命令行,看网页吧。

pipinstalltorchtorchvisiontorchaudio--extra-index-ls://download.pytorch.org/whl/cu124

pipinstall--pretorchtorchvisiontorchaudio--index-ls://download.pytorch.org/whl/nightly/cu124

<>GitHu页面上的最后一步就是安装requirements了。

pipinstall-rrequirements.txt

按照道理来说,接下来你就可以起了。

然后这里如果想把网页暴露在某个端口,你要上网搜搜怎么弄,我是在租的平台上设置一下

然后pythonmain.py---portXXXX,就行了。

<>结果!!这里报错了,说我:AttriuteError:'NoneType'ojecthasnoattriute'tokenize'

然后开始找怎么弄,也没看到主页写clip啥的呀,在issue里看到一个帖子:s://githu/comfyanonymous/ComfyUI/issues/5388

这个帖子里有个大哥po了另一个帖子:s://logfy.org/sd3-5-comfyui/

果然在里面找到了三个clipXXX.safetensors的链接,如果你没办法直接下载,那是因为你没申请许可。

Clip文件在:s://huggingface.co/stailityai/stale-diffusion-3-medium/tree/main/text_encoders

在StaleDiffusion模型中,CLIP文件起着至关重要的作用,主要用于文本与图像的关联和对齐。CLIP(ContrastiveLanguage–ImagePre-training)是由OpenAI开发的一种多模态模型,能够将文本和图像映射到同一个潜在空间中。它使用对学习的方法,使得描述同一事物的文本和图像在潜在空间中的距离更近,而无关的文本和图像距离更远。在StaleDiffusion模型中,CLIP的主要功能是:用户输入的文本(如提示词)会通过CLIP模型中的文本编码器进行编码,生成textemeddings。这些emeddings捕捉了文本的语义信息,便于模型理解用户的输入。接着,这些emedding会作为生成模型的条件输入。生成模型根据这些嵌入来引导其生成符合文本描述的图像。

怪不得是clip.tokenize(text)函数,原来在做textemedding呢。突然觉得有意思了,有没有。

好的,如果这个时候你下载好了clip文件,记得把他们放在models/clip文件夹下!

然后,你就可以重新开起server。

<>这个时候可能你还是报错。。。

然后你,就要看看这个帖子:s://githu/comfyanonymous/ComfyUI/issues/4868

原来是我的clip文件并没有很好的加载!!!我搜了好几个,都提到一个TripleCLIPLoader的东西,然后我看到下图里有这个从NodeTemplates点击进去到这个TripleCLIPLoader的方式,我就开始探索。

结果我发现我的NodeTemplates下面只有一个Manage,不好意思第一次玩ComfyUI,我着实不熟悉:

然后我就去探索了一下,ComfyUI的边栏,我,被我发现了NodeLirary!!!虽然没有直接找到,但是你可以搜到这个TripleCLIPLoader。

添加了以后,你就把三个clip文件改一下,然后node和node之间的线连接一下。如果你不会,你就应用一下你从小培养的电子产品第六感试试。连接的方式:

然后你就可以运行了,点击Queue。

然后你就发现有一个任务正在运行

然后就画出来啦!!

<>最后的最后,祝你成功!!!

扫描二维码推送至手机访问。

版权声明:本文由卡卷网发布,如需转载请注明出处。

本文链接:https://www.kajuan.net/ttnews/2025/01/7319.html

分享给朋友:

相关文章

为什么程序员不自己开发微信小程序这类似的东西赚钱?

为什么程序员不自己开发微信小程序这类似的东西赚钱?

你如果有好的想法是可以挣钱的首先大家说的个人资质限制确实多,也不建议直接拿个人资质去用小程序盈利,因为很麻烦我说一下我的大体操作:1.首先去申请个体户,这个可以用住宅来注册申请,而且速度很快就几天就下来了,经营类目主要是互联网销售这些,不过...

大量刷短视频,会让大脑变笨拙吗?

会。我曾经是一名高三学生,亲身实践过。当时集中突破语文,每天都在刷语文卷。然后有一天想躺一下刷手机,结果短视频刷完了,我再去看哪些文章,只觉头晕眼花,难以理解文字。不过好在这种情况是短时间的,过了一天我的能力又恢复了。在我看来,长期刷短视频...

无人机真的是中国领先吗?

无人机真的是中国领先吗?

巧了这是。捡到了一台大疆。应该是别人飞丢的。在草丛中泡过水,轴承锈死,电池鼓涨已,经没有维修价值了。但作为玩电子的,免不了要把它解剖,研究一番。那么,我们看看它的国产化率能有多少吧。图片说话:解释一下吧。图一,高通 美国图二,MPS: 美国...

拼多多,怎么就成为了年轻人的「赛博菜市场」?

拼多多,怎么就成为了年轻人的「赛博菜市场」?

可惜你不在拼多多买水果蔬菜,很难一句话跟你解释,我只能笨拙的用经历来慢慢讲。我们公司有微波炉,同事们几乎都是自己带饭来上班,便当荤素搭配、水果零食;都是好看又好吃。我自己本来就不喜欢外卖,当然也加入了带饭大军: 直到某一天深夜我闲着无聊刷了...

WordPress建站同时面向B端和C端,有什么好的解决方案?

这个很容易实现呀,只不过需要自己开发,整体用权限管理就可以实现了,B端和C端是不同用户权限,C端能看到的菜单入口和B端不一样就行了。技术层面实现没问题的,只不过就是看你们的技术能力和投入了 ,这样的需求应该没有现成的开源插件。只能找人定制开...

腾讯云为何在云服务市场败给了阿里云?

IDC领域,2010年以前,万网、新网互联、新网,三家公司瓜分天下,其中万网市场份额最高,排名第一。当时,万网的域名是http://www.net.cn,通过该域名就可以判断万网的地位。2010年阿里云成立,直接收购了万网,大量用户直接流向...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。