学习

EliGen

EliGen是由浙江大学与阿里巴巴集团联合开发的实体级可控图像生成框架,采用区域注意力机制实现对图像中实体的精确控制,支持多实体修复、风格化生成及交互式编辑。基于50万高质量注释样本训练,具备强大泛化能力,适用于虚拟场景、角色设计、数据合成及产品展示等场景。

LipRead Pro

LipRead Pro 是一款基于AI技术的视频唇读工具,可将视频中的唇部动作转换为文字,支持多语言和口音识别。其高精度算法确保了文字输出的准确性,适用于内容创作、无障碍辅助、安全监控、历史档案修复等多种场景。操作简便,处理高效,注重用户数据隐私保护,适合专业用户和普通用户使用。

FlexiAct

FlexiAct是由清华大学与腾讯ARC实验室联合研发的动作迁移模型,可在空间结构差异较大的场景下实现精准动作迁移,并保持目标主体的外观一致性。其核心模块包括轻量级RefAdapter和频率感知动作提取(FAE),有效提升跨主体动作迁移的灵活性与准确性。该模型适用于影视、游戏、广告等多个领域,具有良好的应用前景。

StealthGPT

StealthGPT是一款生成“不可检测”AI文本的工具,主要面向学生和内容创作者。它通过“人类化”处理,使AI生成的内容更接近人类写作,从而绕过AI检测工具。支持多语言写作、自动化引用、格式化、图片转答案、SEO写作以及PDF辅助阅读等功能。用户可选择不同版本以满足学习、创作和商业需求。

面灵AI

面灵AI是一款基于DeepSeek大模型的智能面试辅助工具,支持实时问题解析、个性化面试策略生成、多场景模拟面试及面试反馈报告等功能。其覆盖200+行业高频场景,提供多语言支持,适用于求职者提升面试技巧、熟悉流程并优化表现。用户可通过官网注册并选择不同套餐进行使用。

ColorFlow

ColorFlow是一款由清华大学与腾讯ARC实验室联合研发的图像序列着色模型,具备检索增强、上下文学习及超分辨率技术,能够精准保持个体身份并实现高质量着色。该工具在漫画、动画制作、老照片修复及艺术创作等领域具有广泛应用价值,同时支持学术研究和技术探索。

Motion Dreamer

Motion Dreamer是由香港科技大学(广州)研发的视频生成框架,采用两阶段架构生成物理合理的视频内容。通过引入“实例流”实现从稀疏到密集的运动控制,支持用户以少量提示生成时间连贯的视频。其随机掩码训练策略增强了模型的推理能力与泛化性能,已在多个数据集上验证其优越性。适用于视频创作、动画制作、VR/AR及自动驾驶等多个领域。

Edicho

Edicho 是一种基于扩散模型的图像编辑工具,能够在多图像间实现一致性编辑,无需额外训练。其核心技术包括 Corr-Attention 注意力模块和 Corr-CFG 去噪策略,通过显式图像对应关系提升编辑质量与一致性。适用于图像修复、风格转换、内容创作、医学影像增强等场景,具备良好的兼容性与扩展性。

Optima

Optima是一款由清华大学研发的框架,旨在通过迭代生成、排名、选择和训练过程,优化基于大型语言模型的多智能体系统。它不仅提高了通信效率和任务完成质量,还支持大规模复杂任务处理,同时集成了强化学习与蒙特卡洛树搜索技术以生成优质训练数据。Optima适用于信息不对称问答、复杂推理任务、软件开发等多个领域,具有高扩展性和低计算成本的特点。

Xiaomi MiMo

Xiaomi MiMo 是小米推出的推理型大模型,具备强大的数学推理与代码生成能力。通过预训练与后训练相结合,利用大量高价值语料及强化学习算法,在 7B 参数规模下实现超越更大模型的表现。支持多场景应用,包括教育、科研、软件开发等,已开源至 HuggingFace,便于开发者使用与研究。