Animate Anyone Animate Anyone是一款由阿里巴巴智能计算研究院开发的开源框架,旨在将静态图像中的角色或人物动态化。它采用扩散模型,结合ReferenceNet、Pose Guider姿态引导器和时序生成模块等技术,确保输出的动态视频具有高度一致性和稳定性。该框架支持多种应用,包括角色动态化、时尚视频合成及人类舞蹈生成,用户可通过GitHub或Hugging Face社区轻松体验。 AI项目与工具 2025年06月12日 19 点赞 0 评论 510 浏览
Outfit Anyone Outfit Anyone是一款由阿里巴巴智能计算研究院开发的高质量服装虚拟试穿开源项目。它采用双流条件扩散模型处理模特、服装和文本提示,通过衣物图像作为控制因素,生成逼真的虚拟试穿效果。该工具支持低图片输入要求,高质量试衣输出,以及多种服装搭配和姿势调整,适用于普通消费者、服装设计师、模特及电商从业者等不同群体。 AI项目与工具 2024年01月01日 54 点赞 0 评论 342 浏览
Perplexity Perplexity AI 是一款对话式AI搜索引擎,通过自然语言处理技术,能够从多种来源收集信息并提供准确答案。它支持用户通过聊天方式进行提问,确保信息来源可靠,并适用于多种职业背景的用户。与传统搜索引擎相比,Perplexity AI 提供了简洁无广告的体验和更高效的搜索结果。 AI项目与工具 2025年06月12日 11 点赞 0 评论 463 浏览
MagicVideo MagicVideo-V2是一款由字节跳动公司团队开发的AI视频生成模型和框架。该模型通过集成文本到图像模型、视频运动生成器、参考图像嵌入模块和帧插值模块,实现了从文本到高保真视频的转换。生成的视频不仅具有高分辨率,而且在视觉质量和运动流畅度方面表现出色,为用户提供卓越的观看体验。 AI项目与工具 2024年01月01日 56 点赞 0 评论 510 浏览
Motionshop Motionshop是一款由阿里巴巴智能计算研究院开发的AI角色动画框架,能够将视频中的角色转换为3D化身,同时保持视频中其他元素的完整性。该框架利用视频处理、角色检测与分割、姿态分析、模型提取及动画渲染等多项技术,实现了视频中角色从现实到虚拟的无缝转换。用户只需上传一段视频,Motionshop将自动识别视频中的主要人物,并将其转换为3D角色,同时精确复制原视频中人物的动作细节,确保3D角色的动 AI项目与工具 2024年01月01日 94 点赞 0 评论 300 浏览
InstantID InstantID 是一种基于扩散模型的图像生成技术,专注于实现零次(zero-shot)身份保留(Identity-Preserving)的个性化图像合成。该技术允许用户仅使用一张面部图像,在多种风格中生成个性化的图像,同时确保高保真度。其主要功能包括个性化图像合成、身份特征保留、风格迁移、新视角合成、身份插值和多身份合成。InstantID 兼容预训练模型,无需额外微调即可实现灵活的图像生成。 AI项目与工具 2024年01月01日 56 点赞 0 评论 441 浏览
VideoCrafter2 VideoCrafter2 是一款由腾讯AI实验室开发的视频生成模型,通过将视频生成过程分解为运动和外观两个部分,能够在缺乏高质量视频数据的情况下,利用低质量视频保持运动的一致性,同时使用高质量图像提升视觉质量。该工具支持文本到视频的转换,生成高质量、具有美学效果的视频,能够理解和组合复杂的概念,并模拟不同的艺术风格。 AI项目与工具 2024年01月01日 49 点赞 0 评论 143 浏览
Lepton Search Lepton Search 是一个基于对话式AI的搜索引擎,由前阿里巴巴技术副总裁及AI科学家贾扬清创立的Lepton AI应用构建平台开源。它通过集成大语言模型和调用Bing搜索API,实现了自然语言交互和精准搜索。其开源特性、对话式搜索能力、内置大语言模型支持、搜索引擎集成、可定制化用户界面以及搜索结果的高效管理,使其成为一款功能全面、灵活且高效的AI工具。 AI项目与工具 2024年01月01日 96 点赞 0 评论 403 浏览
DiffusionGPT DiffusionGPT是一款基于大型语言模型的开源文本到图像生成系统,由字节跳动与中山大学联合开发。它采用思维树和优势数据库技术,能够解析和处理多样化的文本提示,生成高质量图像。系统通过多模型的选择与集成、基于人类反馈的优化以及高效的图像生成执行,实现了从文本到图像的无缝转换。DiffusionGPT适用于多种应用场景,具有广泛适用性和灵活性。 AI项目与工具 2024年01月01日 93 点赞 0 评论 341 浏览
AnimateDiff AnimateDiff是一款由上海人工智能实验室、香港中文大学和斯坦福大学的研究人员共同开发的框架,旨在将文本到图像模型扩展为动画生成器。该框架利用大规模视频数据集中的运动先验知识,允许用户通过文本描述生成动画序列,无需进行特定的模型调优。AnimateDiff支持多种领域的个性化模型,包括动漫、2D卡通、3D动画和现实摄影等,并且易于与现有模型集成,降低使用门槛。 AI项目与工具 2024年01月01日 59 点赞 0 评论 198 浏览