模型

Yodayo

Yodayo 是一个面向动漫爱好者和虚拟主播的在线AI艺术创作平台,主要功能包括文本到图像生成器、模型选择、探索页面以及虚拟聊天室。用户可以通过输入文本提示词,利用AI技术生成高质量的动漫风格图像。该平台鼓励创意分享和社区互动,提供直观的用户界面和先进的AI技术,激发用户的创意灵感。

MagicColor

MagicColor是一款由香港科技大学开发的多实例线稿图着色工具,基于自监督训练和实例引导模块,实现高效、精准的色彩分配。支持参考图像驱动,具备实例级控制与边缘增强功能,适用于动画、数字艺术、游戏开发等领域。采用扩散模型与双UNet架构,提升着色质量和效率,适合创意设计与教育应用。

Mercury Coder

Mercury Coder 是 Inception Labs 推出的扩散型大语言模型,专为代码生成设计。它采用“从粗到细”机制,支持并行生成,每秒可处理超过 1000 个 token,效率显著高于传统模型。具备代码生成、补全、优化、多语言支持及可控生成等功能,适用于开发效率提升、教育辅助、代码优化及低代码平台集成等场景。

OSUM

OSUM是一款由西北工业大学研发的开源语音理解模型,结合Whisper编码器与Qwen2 LLM,支持语音识别、情感分析、说话者性别分类等多种任务。采用“ASR+X”多任务训练策略,提升模型泛化能力和稳定性。基于约5万小时语音数据训练,性能优异,适用于智能客服、教育、心理健康监测等多个领域。

LatentLM

LatentLM是一款由微软与清华大学合作开发的多模态生成模型,能够统一处理文本、图像、音频等多种数据类型。它基于变分自编码器(VAE)和因果Transformer架构,支持自回归生成与跨模态信息共享,特别擅长图像生成、多模态语言模型及文本到语音合成等任务,其提出的σ-VAE进一步提升了模型的鲁棒性。

GeneralDyG

GeneralDyG是一种由南洋理工大学提出的通用动态图异常检测方法,适用于社交网络、电商、网络安全和金融等领域。该工具通过时间 ego-graph 采样、图神经网络和时间感知 Transformer 模块,有效捕捉动态图的多尺度特征,具备高适应性和计算效率。实验证明其性能优于多种主流方法,具有广泛的应用前景。

超算互联网

超算互联网是国家级算力服务平台,整合全国超算与智算资源,提供算力调度、AI模型服务、SaaS平台、数据支持及技术支持。支持DeepSeek、Qwen等AI模型的在线推理、API部署和私有化开发,适用于科研、工业、企业数字化、人工智能及教育等多个领域,推动算力普惠与科技创新。

KTransformers

KTransformers是一款由清华大学KVCache.AI团队与趋境科技联合开发的开源工具,用于提升大语言模型的推理性能并降低硬件门槛。它支持在24GB显卡上运行671B参数模型,利用MoE架构和异构计算策略实现高效推理,预处理速度达286 tokens/s,推理速度达14 tokens/s。项目提供灵活的模板框架,兼容多种模型,并通过量化和优化技术减少存储需求,适合个人、企业及研究场景使用。

Nemotron

Nemotron-Mini-4B-Instruct是一款由英伟达开发的小型开源语言模型,针对角色扮演、检索增强生成(RAG)及函数调用任务进行了优化。模型基于Transformer架构,利用蒸馏、剪枝和量化技术提升运行效率与设备端适配能力,适用于实时交互场景,如游戏NPC对话或虚拟助手交互。其快速响应特性使其在客户服务、教育软件及内容创作领域也展现出巨大潜力。

提示精灵小富贵

一个旨在简化并增强为AI模型创建和优化提示词(Prompts)过程的开源项目,会帮你写Prompt提示词的GPTs应用。