GPT 图解 大模型是怎样构建的 - 黄佳
本书主要内容包括 N-Gram,词袋模型,Word2Vec,神经概率语言模型,循环神经网络,Seq2Seq,注意力机制,Transformer,从初代 GPT 到 ChatGPT 再到 GPT-4 等一系列突破性技术的诞生与演进。
本书主要内容包括 N-Gram,词袋模型,Word2Vec,神经概率语言模型,循环神经网络,Seq2Seq,注意力机制,Transformer,从初代 GPT 到 ChatGPT 再到 GPT-4 等一系列突破性技术的诞生与演进。
An authoritative, accessible, and up-to-date treatment of deep learning that strikes a pragmatic middle ground between theory and practice.
本书将探索 Agent 的奥秘,通过带着读者动手做 7 个功能强大的 Agent,全方位解析 Agent 的设计与实现,涵盖 GPT-4 模型、OpenAI Assistants API、LangChain、LlamaIndex 和 MetaGPT 等尖端技术。
本书详尽地覆盖了多模态大模型的算法原理和应用实战,提供了丰富的微调技术细节和实际案例。分为算法原理篇和应用实战篇,涵盖 Transformer、GPT 系列、Stable Diffusion、CLIP 等模型。
系统地讲解了大模型技术、训练算法(包括强化学习、RLHF、PPO、GRPO、DPO、SFT 与 CoT 蒸馏等)、多种效果优化措施及其实践。
本书回顾了世界几大科技巨头十余年来前所未有的激烈竞赛,揭示它们如何投入巨额的资金与精力,囤积算力、笼络人才,捍卫自己的护城河,只为训练出当今最先进的 AI 模型。
本书作为机器学习领域的入门教材,在内容上尽可能涵盖机器学习基础知识的各方面,包括决策树、神经网络、支持向量机、贝叶斯分类器、集成学习、聚类等经典方法。
本书使用向量的概念对国内高校工科"线性代数"的课程内容进行了较全面的几何分析,把上百个概念和定理的几何意义串在一起。
本书给出了一个机器学习入门路线图,从一个零基础的初学者视角出发,让读者跟着她一步一步向前,循序渐进地学习知识。包括机器学习、深度学习和强化学习的基础内容。