DreamShaper」 - Reddo

DreamShaper
DreamShaper文本到图像的模型

DreamShaper 是一款可在多个平台运行的文本到图像模型,具有艺术创作、动漫生成等多种功能。用户可通过官网了解更多信息并使用该模型。

团队名称匹配

DiffusionBee
DiffusionBeeAI艺术生成,稳定扩散

DiffusionBee是一款使用稳定扩散技术在计算机上生成AI艺术的最简单方法。完全免费。离线运行。无限制。包括文本转图像、图像转图像、修复、扩展、提升分辨率等功能。支持自定义模型和高级选项。生成过程完全在本地进行,保护用户隐私。活跃的社区提供支持和交流。价格:免费。

DiffusionBee 专注于文本到图像模型开发,功能多样,且免费离线。

Runway
RunwayReimagining creativity with artificial intell...

朗韦公司致力于开发视频生成模型 Gen-2,它是一种多模态 AI 系统,能够将简短的文字描述转换为相应的视频内容。该模型具有多种模式,可根据不同需求生成视频,且效果逼真、可控。朗韦公司在人工智能和机器学习领域的研究处于前沿,致力于让创造力的未来对所有人都可及、可控且具有赋能作用。

Runway 致力于文本到图像模型开发,且有图像视频编辑产品,与查询信息高度相关

stable-diffusion-2-base
stable-diffusion-2-base文本到图像生成模型

Stable Diffusion v2-base 是一个基于扩散的文本到图像生成模型,由 Robin Rombach 和 Patrick Esser 开发。它可以根据文本提示生成和修改图像,使用了固定的预训练文本编码器 OpenCLIP-ViT/H。该模型在 LAION-5B 数据集的子集上进行了训练,并经过了 NSFW 分类器的过滤。它具有多种应用场景,包括艺术创作、设计、教育等,但也存在一些局限性和偏差。

团队名称匹配,且开发了文本到图像模型

NeverEnding-Dream
NeverEnding-Dream文本到图像生成模型

NeverEnding-Dream 是 Hugging Face 上的一个模型,可用于文本到图像的生成,具有多种应用场景,如艺术创作、设计等。用户可以通过官网了解更多信息并使用该模型。

团队名称匹配,模型功能、应用场景、官网信息等高度相似。

sd-turbo
sd-turbo快速生成逼真图像的文本到图像模型

sd-turbo 是一款快速的生成式文本到图像模型,能够在单次网络评估中从文本提示合成逼真的图像。它是 Stable Diffusion 2.1 的精简版本,基于一种称为对抗扩散蒸馏(ADD)的新型训练方法。该模型可用于研究生成模型、实时应用、影响等领域,也可用于艺术创作和教育工具等。

DreamShaper 是文本到图像模型的开发团队,而查询的团队也是文本到图像模型的开发团队。

Animagine
Animagine基于文本提示生成高质量动漫风格图像的模型

Animagine 是一款基于稳定扩散 XL 优化的文本到图像生成模型,专门针对动漫风格进行了优化。它具有更广泛的动漫角色知识、优化过的数据集和新的美学标签,能生成高质量动漫风格图像,为动漫爱好者、艺术家和内容创作者提供有价值的资源。

团队名称和功能与查询内容一致

Fooocus
FooocusFooocus利用尖端AI技术将您的创意想法变为现实,体验图像生成和编辑的未来,唯一的限制...

Fooocus利用尖端AI技术将您的创意想法变为现实,体验图像生成和编辑的未来,唯一的限制是您的想象力。Fooocus致力于为用户提供最好的AI生成艺术和头像生成服务。

被查信息是关于能生成图像的团队,提供多种服务

Stability AI
Stability AIActivating humanity's potential through gener...

Stability AI 是一家元宇宙及数字媒体工具开发商,成立于 2019 年,总部位于英国。公司构建了可制作数字艺术的 AI 工具“Stable Diffusion”,该工具可用于元宇宙中的应用程序设计,也能创建演示文稿等。Stable Diffusion 是开源软件,用户可基于其代码构建各种应用程序。

Stability AI 与 DreamShaper 类似,也是文本到图像模型团队。

OFT
OFTOFT可有效稳定微调文本到图像扩散模型

OFT是一家专注于文本到图像生成、图像合成和条件图像生成领域的公司。其研究成果ControllingText-to-ImageDiffusion方法在生成质量和收敛速度上优于现有方法。公司致力于保持神经元之间的超球面能量不变,防止模型的生成能力下降或模型坍塌,实现主体驱动的图像生成和可控的图像生成。

提供文本到图像的生成和研发,并有相关项目成立时间相近,但并非同一团队

dalle-mega
dalle-mega文本到图像生成模型

dalle-mega 是一个基于 Transformer 的文本到图像生成模型,由 Boris Dayma 等人开发。它可以根据文本提示生成图像,具有多种应用场景,如支持创意、创作幽默内容等。该模型在训练过程中使用了大量的互联网数据,但也存在一些局限性和偏差,例如对非英语语言的表现较差,可能生成包含负面刻板印象的图像等。

团队从事类似文本到图像模型开发

modelshoot
modelshootText-to-Image 模型

modelshoot 是一个基于 Dreambooth 训练的文本到图像模型,它专注于全身到中景的拍摄,强调时尚服装和时尚拍摄美学。该模型在多样化的人物照片上进行训练,旨在生成具有时尚感的图像。

该团队从事文本到图像的模型开发且功能多样

CogView
CogView通用领域文本到图像生成的预训练 Transformer 模型

CogView 是一个用于通用领域文本到图像生成的预训练 Transformer 模型,包含 410 亿参数,能够生成高质量、多样化的图像。模型采用抽象到具体的训练思路,先预训练获得通用知识,然后在特定域进行微调,能显著提升生成质量。

是文本到图像模型开发团队,部分满足严格条件

playground-v2-1024px-aesthetic
playground-v2-1024px-aesthetic生成高审美图像的模型

这是 Playground 团队开发的基于扩散的文本到图像生成模型,能根据文本提示生成 1024x1024 分辨率的高审美图像,使用了两个固定预训练文本编码器,在用户研究和新基准测试中表现出色,还发布了不同训练阶段的中间检查点。

团队名称不匹配,但产品与所查询的团队类似

SSD-1B
SSD-1B基于扩散的文本到图像生成模型

SSD-1B 是 Segmind 开发的一种基于扩散的文本到图像生成模型,它是 Stable Diffusion XL 的蒸馏版本,体积缩小 50%,速度提升 60%。该模型经过多种数据集的训练,能够根据文本提示生成高质量的图像。它具有文本到图像生成、速度快、训练数据多样、知识蒸馏等特点,适用于艺术设计、教育、研究等领域。

模型名称和描述与查询不匹配,但行业和功能相似。

stable-diffusion-v1-4
stable-diffusion-v1-4文本到图像的扩散模型

Stable Diffusion 是一种潜在的文本到图像扩散模型,能够根据任何文本输入生成逼真的图像。它是一种基于扩散的文本到图像生成模型,使用了固定的预训练文本编码器。该模型具有多种应用领域,包括安全部署、研究模型的局限性和偏差、生成艺术作品等。

团队名称和模型名称部分匹配,同时满足文本到图像的功能

stable-diffusion-xl-refiner-10
stable-diffusion-xl-refiner-10图像生成与修改模型

这是一个基于文本提示生成和修改图像的模型,由 Stability AI 开发。它是一种基于扩散的文本到图像生成模型,使用了两个固定的预训练文本编码器。该模型可用于艺术创作、教育工具、研究等领域,但在生成真实照片、渲染文字、处理复杂任务等方面存在一定局限性。

团队名称不匹配,但也从事文本到图像模型的开发工作。