BioMedGPT介绍
日前,清华智能产业研究院(AIR)开源轻量版BioMedGPT1.6B。据悉,BioMedGPT-1.6B是一个参数为16亿的生物医药领域轻量级科研版基础模型,具有跨模态与知识融合的特点,可以处理药物性质预测、自然语言类、跨模态等多种任务。
日前,清华智能产业研究院(AIR)开源轻量版BioMedGPT1.6B。据悉,BioMedGPT-1.6B是一个参数为16亿的生物医药领域轻量级科研版基础模型,具有跨模态与知识融合的特点,可以处理药物性质预测、自然语言类、跨模态等多种任务。
云雀大模型
云雀大模型不仅是一个技术平台,更是一个创作平台。基于云雀大模型,字节跳动推出了多款智能创作的产品和服务,为用户提供了更多的可能性和便利。
文心一言
百度推出的知识增强型对话语言模型,千亿级参数量,在知识问答、创意生成等任务上表现出色。
星火大模型
科大讯飞推出的AI大模型,支持对话、写作、编程等功能,还能提供语音交互方式。
通义千问
Qwen-7B大型语言模型(LLM),正式开启了我们的开源之旅。今天,我们介绍Qwen开源家族,更全面的展示我们的工作和目标。下面是开源项目和社区的重要链接。 Paper: https://arxiv.org/abs/2309.16609 ...
悟道
悟道2.0参数达到1.75万亿个,可以同时处理中英文和图片数据。 智源人工智能研究院:悟道 2021年3月,智源研究院发布了“悟道1.0”,这是中国的第一个AI大模型。智源研究院是科技部和北京市支持的,依托北京大学、清华大学、中国科学院、百...
MPT-30B
MPT-30B是另一个与LLaMA衍生模型竞争的开源大模型。它是由Mosaic ML开发的,并对来自不同来源的大量数据进行了微调。它使用来自ShareGPT Vicuna、Camel AI、GPTeacher、Guanaco、Baize和其...
Vicuna 33B
Vicuna是LMSYS开发的另一个强大的开源大模型。它也是从LLaMA衍生而来的。它使用监督指导进行了微调,训练数据是从sharegpt.com网站上收集的。这是一个自回归的大模型,基于330亿个参数进行训练。
Guanaco-65B
LLaMA衍生的模型中,Guanaco-65B被证明是最好的开源大模型,Guanaco有四种类型:7B、13B、33B和65B型号。Tim Dettmers和其他研究人员在OASST1数据集上对所有模型进行了微调。
请先登录登录
70
文章
214
网址
2.0 W
阅读
7
点赞
161
点击
7
收藏
微信扫码分享
评论 ( 0 )