模型

DDColor图像上色

一个为黑白图像上色的魔搭模型,通过双解码器实现逼真的图像着色,输入一张黑白图像,实现端到端的全图上色,返回上色处理后的彩色图像。

DeepSeek R1

DeepSeek R1-Zero 是一款基于纯强化学习训练的推理模型,无需监督微调即可实现高效推理。在 AIME 2024 竞赛中 Pass@1 分数达到 71.0%,展现强大逻辑与数学推理能力。支持长上下文处理,具备自我进化、多任务泛化等特性,并通过开源和蒸馏技术推动模型应用与优化。

TimeSuite

TimeSuite是一种由上海AI Lab开发的框架,专注于提升多模态大型语言模型在长视频理解任务中的表现。它通过引入高效的长视频处理框架、高质量的视频数据集TimePro和Temporal Grounded Caption任务,提升了模型对视频内容的时间感知能力,减少了幻觉风险,并显著提高了长视频问答和时间定位任务的性能。其核心技术包括视频令牌压缩、时间自适应位置编码、U-Net结构及多样化任务

Qihoo

Qihoo-T2X是由360 AI研究院与中山大学联合研发的高效多模态生成模型,基于代理标记化扩散 Transformer(PT-DiT)架构。该模型通过稀疏代理标记注意力机制显著降低计算复杂度,支持文本到图像、视频及多视图生成。具备高效生成能力和多任务适应性,适用于创意设计、视频制作、教育、游戏开发及广告等多个领域。

Emu Video

Meta开发的文本到视频生成模型,Emu Video使用扩散模型根据文本提示创建视频,首先生成图像,然后根据文本和生成的图像创建视频。

autoMate

autoMate是一款基于AI与RPA技术的本地化自动化工具,用户可通过自然语言描述任务,无需编程即可完成复杂操作。支持本地部署,确保数据安全,兼容主流大模型,具备智能学习能力。适用于数据处理、报告生成、邮件自动化、跨平台流程管理及日常任务调度等场景,提升工作效率并释放创造力。

吱秘AI

原名极简智能王,一款多功能的办公与写作辅助工具。它通过智能聊天对话的形式,为用户提供包括创作、编写、翻译、甚至写代码在内的一系列功能。

MobileLLM

MobileLLM是一款针对移动设备优化的大型语言模型,具有语言理解与生成、零样本常识推理、聊天交互、API调用、文本重写与摘要生成以及数学问题解决等功能。它通过深度薄型架构、SwiGLU激活函数、嵌入共享和分组查询注意力机制等技术,在低参数环境下实现高效性能,适用于移动聊天、语音助手、内容推荐、教育辅助和移动搜索等多种应用场景。

TimesFM 2.0

TimesFM 2.0是谷歌推出的开源时间序列预测模型,采用仅解码器架构,支持处理长达2048个时间点的单变量序列,具备灵活的预测频率选择与分位头预测功能。模型通过大规模自监督预训练,覆盖多个领域,具有优秀的泛化能力。适用于零售、金融、交通、环境监测等多个场景,为数据分析与决策提供支持。

SwiftBrush V2

SwiftBrush V2 是一款基于文本到图像的单步扩散模型,通过改进权重初始化、LoRA训练及夹紧CLIP损失等技术,实现了与多步Stable Diffusion模型相媲美的性能。它无需真实图像数据即可训练,显著提升了生成速度和图像质量,广泛应用于艺术创作、游戏开发、虚拟现实等领域。