计算

Agent

Agent-S 是一款基于图形用户界面(GUI)的人机交互自动化框架,通过经验增强的分层规划和代理-计算机接口(ACI),实现了复杂任务的自动化分解与执行。它结合多模态大型语言模型(MLLMs)进行推理和控制,并具备持续学习和跨操作系统通用性的特点,适用于办公自动化、网页交互、个人助理、客户服务和教育等多个场景。

Augmented Physics

Augmented Physics是一款基于人工智能的教育工具,旨在通过计算机视觉技术和多模态语言模型,将物理教科书中的静态图表转化为动态交互式模拟,帮助学生更好地理解物理概念。它支持多种仿真类型,包括光学、运动学和电路等,并提供动态可视化和动画效果,同时无需编程技能即可创建仿真。

Ministral 3B/8B

Ministral 3B 和 8B 是由 Mistral AI 开发的两款轻量级 AI 模型,专为设备端和边缘计算设计。它们具备强大的知识处理能力和高效的上下文管理能力,支持长达 128k 的上下文长度,并通过独特的交错滑动窗口注意力机制提升了推理速度。这些模型适用于设备端翻译、本地数据分析、智能助手及自主机器人等领域,同时支持无损量化和私有部署。

IterComp

IterComp是一种基于迭代反馈学习机制的文本到图像生成框架,由多所顶尖高校的研究团队联合开发。它通过整合多个开源扩散模型的优势,利用奖励模型和迭代优化策略,显著提升了生成图像的质量和准确性,尤其在多类别对象组合与复杂语义对齐方面表现突出,同时保持较低的计算开销。IterComp适用于艺术创作、游戏开发、广告设计、教育和媒体等多个领域。

LayerSkip

LayerSkip 是一种针对大型语言模型推理优化的技术,通过层 dropout 和早期退出损失机制,实现从早期层的精准退出,降低计算成本并提高解码效率。该方法结合自我推测解码技术,支持模型在早期层生成预测并通过后续层验证修正,广泛适用于文档摘要、编程任务、语义解析等自然语言处理任务,同时确保高精度与低延迟。

SaRA

SaRA是一种新型预训练扩散模型微调方法,通过重新激活预训练阶段未被充分使用的参数,有效提升模型的适应性和泛化能力。该方法支持核范数低秩稀疏训练,能够防止过拟合并优化模型性能,同时大幅降低计算资源需求。SaRA适用于多种应用场景,包括图像风格迁移、视频生成及下游数据集微调等,仅需少量代码调整即可实现高效微调。

MoE++

MoE++是一种基于混合专家架构的新型深度学习框架,通过引入零计算量专家、复制专家和常数专家,有效降低计算成本并提升模型性能。它支持Token动态选择FFN专家,并利用门控残差机制实现稳定路由,同时优化计算资源分配。该框架易于部署,适用于多种应用场景,包括自然语言处理、智能客服及学术研究。

Claude 3.5 Haiku

Claude 3.5 Haiku 是 Anthropic 推出的高性能人工智能模型,具备强大的编码能力和低延迟特性,适合复杂推理与问题解决任务。它通过“Unstructured Generalization”算法优化非结构化数据处理,并引入“宪法 AI”确保行为符合道德规范。此外,该模型支持“计算机使用”功能,能够模拟人类与计算机交互,广泛应用于自动化桌面任务、虚拟助手构建、医疗决策支持、教育及客

easegen

Easegen 是一款开源的 AI 工具,支持数字人课程的制作与管理。它能够批量生成 PPT 课件、克隆数字人形象和声音,并通过 AI 技术实现视频渲染和智能出题。其核心功能包括课程制作、视频管理、智能课件生成、数字人克隆及声音克隆,旨在提升教学内容的互动性和趣味性。Easegen 的技术基础涵盖人工智能、计算机视觉、自然语言处理和语音合成等,适用于在线教育、企业培训、学术研究、语言学习及职业培训

Moonshine

Moonshine是一款专为资源受限设备设计的高效语音识别模型,支持实时语音转文本,具有低延迟、高准确率的特点。它基于编码器-解码器架构和旋转位置嵌入技术,适应不同长度的音频输入,计算需求随音频长度变化而调整,适合边缘设备部署。主要应用于会议转录、语音助手、听力辅助及多语言翻译等领域。