AI

DreamGen

DreamGen是英伟达推出的机器人学习技术,基于AI视频世界模型生成合成数据,使机器人能在梦境中学习新技能。它通过微调视频世界模型、生成虚拟数据、提取虚拟动作和训练下游策略四步流程,实现机器人在新环境中的行为和环境泛化。DreamGen无需大量真实数据,仅凭文本指令即可完成复杂任务,提升学习效率和泛化能力。其支持多种机器人系统和策略架构,适用于工业生产、家庭服务、医疗护理等多个领域。

Aishort

AIShort 提供一份简便的 ChatGPT 指令列表,可迅速筛选和查询适应各种场景的提示词,从而帮助用户精简操作过程,并提供了浏览器插件方便直接调用。

创作星

创作星是一款基于AI技术的多功能对话工具,集成了AI聊天、AI绘画、AI视频制作及文本生成等多项功能。它能够适应多种场景需求,如工作咨询、学术讨论、日常闲聊等,并提供便捷的操作体验。无论是创意激发还是实际应用,创作星都展现出强大的实用性和创新性。 ---

sendsteps

SendSteps是一款结合人工智能技术的演示文稿制作工具,支持通过AI辅助生成、自定义编辑或文件导入等方式快速创建高质量演示文稿。其特色功能涵盖智能排版、多语言支持、互动元素设计及云端协作,广泛应用于商务、教育、企业培训及市场推广等领域,致力于优化用户的内容呈现体验。

KYP.ai

KYP.ai的功能只要是通过工具识别可以通过自动化工具解决的障碍和低效,并向客户管理员提供建议。

Spikes Studio

Spikes Studio是一个将长视频转化为YouTube、TikTok和Reels病毒视频的工具。它具有强大的AI编辑器,自动添加字幕等功能。

TokenSwift

TokenSwift是由北京通用人工智能研究院开发的超长文本生成加速框架,可在90分钟内生成10万Token文本,效率较传统模型提升3倍,且保持输出质量。其核心优势包括多Token并行生成、动态KV缓存管理、上下文惩罚机制等技术,支持多种模型架构。适用于内容创作、智能客服、学术研究及编程辅助等场景。

Vid2World

Vid2World是由清华大学和重庆大学联合开发的创新框架,能够将全序列、非因果的被动视频扩散模型(VDM)转换为自回归、交互式、动作条件化的世界模型。该模型基于视频扩散因果化和因果动作引导两大核心技术,解决了传统VDM在因果生成和动作条件化方面的不足。Vid2World支持高保真视频生成、动作条件化、自回归生成和因果推理,适用于机器人操作、游戏模拟等复杂环境,具有广泛的应用前景。

Dolphin

Dolphin是由清华大学与海天瑞声联合开发的面向东方语言的语音识别大模型,支持40种语言及22种中文方言,具备高精度语音转文字能力。采用CTC-Attention架构,结合E-Branchformer和Transformer技术,提升识别效率与准确性。模型开源,支持自定义语言与地区设置,适用于会议记录、语音输入、智能助手等多种场景。

Hey Photo

HeyPhoto 是一款使用人工智能来增强您的自拍和肖像的在线照片编辑器程序,它可以改变脸部的各个方面。