模型

AniTalker

AniTalker是一款先进的AI工具,能将单张静态人像与音频同步转化为生动的动画对话视频。它通过自监督学习捕捉面部动态,采用通用运动表示和身份解耦技术减少对标记数据的依赖,同时结合扩散模型和方差适配器生成多样且可控的面部动画。AniTalker支持视频驱动和语音驱动两种方式,并具备实时控制动画生成的能力。

LLM2LLM

LLM2LLM是一种基于教师-学生架构的迭代数据增强方法,通过生成针对性的合成数据提升语言模型在低数据量场景下的性能。该技术通过识别并强化模型预测错误的数据点,实现精准优化,同时控制数据质量和规模。适用于医学、法律、教育等数据稀缺领域,具有良好的可扩展性和实用性。

BISHENG毕昇大模型

一款基于 Apache 2.0 License 协议正式开源的领先开源大模型应用开发平台,能搭建分析报告生成、知识库问答、对话、要素提取等多种大模型应用。

Long

Long-VITA是一款由腾讯优图实验室、南京大学和厦门大学联合开发的多模态AI模型,支持处理超长文本(超过100万tokens)及多模态输入(图像、视频、文本)。通过分阶段训练提升上下文理解能力,结合动态分块编码器与并行推理技术,实现高效处理长文本和高分辨率图像。模型基于开源数据训练,适用于视频分析、图像识别、长文本生成等场景,性能在多个基准测试中表现突出。

PixVerse V2.5

PixVerse V2.5是一款由爱诗科技开发的AI视频生成工具,其主要功能包括模型优化、提高生成速度、支持4K分辨率、Performance模式、运动笔刷、运镜控制以及文本内容生成。这些功能共同提升了视频创作的动态效果和专业度,使得用户能够更快地生成高质量视频内容。PixVerse V2.5支持多种语言界面,适用于创意视频制作、广告和营销、教育和培训、社交媒体内容以及游戏和动画制作等领域。

Quasar Alpha

Quasar Alpha是一款预发布AI模型,具备100万token的超大上下文窗口,可高效处理长文本和复杂文档。其在代码生成、指令遵循、多模态处理等方面表现出色,支持联网搜索以增强信息准确性。适用于代码开发、长文本分析、创意写作及智能问答等多种场景,目前可通过OpenRouter平台免费使用,存在一定请求限制。

Co

Co-op Translator是一款基于Azure AI服务的开源多语言翻译工具,支持Markdown文件及图像文本的自动化翻译。它采用先进的大型语言模型(LLM)技术,确保翻译质量的同时保持语义准确性和上下文连贯性。该工具可无缝集成到现有项目中,帮助简化本地化流程,适用于开源项目文档、软件开发、技术博客、教育材料以及企业内部文档等多种应用场景。

DanceGRPO

DanceGRPO 是由字节跳动与香港大学联合开发的视觉生成强化学习框架,支持文本到图像、文本到视频、图像到视频等多种任务,兼容多种生成模型与奖励机制。其通过强化学习优化生成过程,提升视觉内容质量与一致性,降低显存压力,提高训练效率与稳定性,适用于视频生成和多模态内容创作。

AgiBot Digital World

AgiBot Digital World 是一款基于 NVIDIA Isaac-Sim 的高保真机器人仿真框架,支持多模态大模型驱动的任务与场景自动生成,具备真实感强的视觉与物理模拟能力。其提供多样化专家轨迹生成、域随机化与数据增强功能,助力机器人技能训练与算法优化,并开源了包含多种场景和技能的数据集,适用于工业自动化、服务机器人开发及人工智能研究等领域。

XGrammar

XGrammar 是一款由陈天奇团队开发的开源工具,旨在为大型语言模型提供高效的结构化数据生成能力。它基于上下文无关语法(CFG),支持生成 JSON 和 SQL 等格式的复杂数据结构,具备字节级下推自动机优化、自适应 token 掩码缓存以及上下文扩展等功能,能够显著提升生成效率并减少延迟,适用于编程语言辅助、数据库操作、自然语言处理、Web 开发等多个领域。