
会员
多模态大模型:算法、应用与微调
更新时间:2024-09-11 17:38:30 最新章节:封底
书籍简介
本书详尽地覆盖了多模态大模型的算法原理和应用实战,提供了丰富的微调技术细节和实际案例,适合对多模态大模型有兴趣的技术人员深入学习及应用。本书分为两篇:算法原理篇:详细介绍了先进的深度学习模型,包括Transformer、GPT系列、深度生成模型,从基本架构、训练方法到特定应用,包括但不限于Seq2Seq结构、位置编码、注意力机制、残差连接、变分自编码器、GAN、ViT、CLIP、StableDiffusion、各模型训练实践的知识点。此外,探讨了预训练模型的涌现能力、模型参数和通信数据量的估算,以及分布式训练的各种技术,如数据并行、模型并行和混合精度训练等。应用实战篇:聚焦于深度学习模型的实际应用,特别是文本和图像生成,以及代码生成的应用实战。通过具体实战项目,如利用StableDiffusion进行图像生成和CodeLlama进行代码生成,提供了微调技术的详细细节,介绍了LangChain等大模型应用框架。
品牌:机械工业出版社
上架时间:2024-06-01 00:00:00
出版社:机械工业出版社
本书数字版权由机械工业出版社提供,并由其授权上海阅文信息技术有限公司制作发行
最新章节
最新上架
- 会员本书配套周志华教授所著的《机器学习》教材,通过大量习题考查读者对机器学习相关知识点的理解与掌握。全书分为两个部分:第一部分习题对应《机器学习》第1~10章的内容,包括绪论、模型评估与选择、线性模型、决策树、神经网络、支持向量机、贝叶斯分类器、集成学习、聚类、降维与度量学习;第二部分包含6章应用专题,通过综合题的形式对知识点进行多角度考查,包括线性模型的优化与复用、面向类别不平衡数据的分类、神经网络计算机19.3万字
- 会员大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch2.0深度学习环境搭建计算机12.8万字
- 会员本书以人工智能为核心,上篇讲述了人工智能理论知识及发展蓝图规划,目的是帮助读者认识人工智能,找到入局人工智能领域的途径和方法;中篇罗列了可以为人工智能赋能的前沿技术,包括NLP、机器学习、大数据、物联网、区块链等;下篇总结了人工智能对交通、农业、医疗、制造、教育、金融、文娱等行业的影响和作用,旨在让读者了解人工智能是如何在这些行业实现商业化落地的。本书从多个角度出发,描绘了一幅完整的人工智能发展蓝计算机15.8万字
- 会员随着ChatGPT等人工智能和语言模型不断进步,了解这些技术的含义和潜在陷阱比以往任何时候都更加重要。作为享誉全球的跨技术和设计学科思想家,前田约翰利用他的丰富经验,为企业、产品设计师和决策者提供了可行的指导。通过深思熟虑和偶尔异想天开的例子,他构造了一个可以描述任何机器学习系统的关键功能的框架,并展望了可以如何使用它们来创造富有包容性和改变世界的产品。对任何想要深入了解机器如何“思考”以及未来可计算机9.6万字
- 会员本书旨在帮助读者全面理解知识图谱的基本原理和概念。通过清晰的解释和实例,读者将深入了解知识图谱的构建、表示、推理等关键知识点。此外,本书通过提供代码实战,引导读者亲自动手构建知识图谱,并应用各种技术和工具进行实践。这种实践性的讲解方法可帮助读者更深入地理解知识图谱的实际应用。本书的目标是帮助读者全面理解知识图谱的基本原理和概念,并通过代码实战构建知识图谱。同时,本书也提供了关于大语言模型与知识图谱计算机9.6万字
- 会员近年来,在自然语言处理领域,基于预训练语言模型的方法已形成全新范式。本书内容分为基础知识、预训练语言模型,以及实践与应用3个部分,共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近年来发展迅猛的GPT和提示工程。第三部分介绍了基于Lang计算机12.7万字
- 会员本书理论联系实际,全面地介绍ChatGPT的主要应用场景,帮助读者掌握ChatGPT的使用方法和技巧。本书不仅讲述了ChatGPT在学习、写作、工作、生活方面的应用案例,还介绍了一个打造个人品牌的综合应用,内容实用,可操作性强。本书适合希望了解ChatGPT的初学者阅读。计算机9.6万字