AI技术交流AI技术交流AI技术交流

一周热门排行

    24小时更新:0篇     一周更新:4篇最新发布

    未分类

    LangGraph 入门(1)-介绍

    1
    引言 在过去一年中,LangChain 成为了市场上备受欢迎的 AI 框架之一。这个轻量级的协调工具使开发者能够轻松打造出依托大型语言模型(LLMs)的应用程序及其所有相关组件,如向量数据库(vectorDB)、内存、提示语、工具和代理。LangChain 的亮点在于它能够方便地构建所谓的“链条”。一个“链条”是一系列协作组件的序列,通过大型语言模型处理用户...
    赞 (0)阅读(12)评论(0)
    未分类

    零基础手把手大模型应用开发之LangGraph教程(一):什么是LangGraph?与LangChain的区别?【附详细代码】

    1
    随着人工智能和自然语言处理技术的不断发展,构建更复杂和动态的计算模型变得越来越重要。LangGraph应运而生,通过扩展LangChain的功能,为大型语言模型(LLM)应用添加了循环计算能力。即大模型不再只是端到端的推理,而是能根据业务逻辑以及上一次推理的反馈,决策下一次推理。 本节教程代码仓库:https://github.com/tangyipeng1...
    赞 (0)阅读(14)评论(0)
    未分类

    大模型算法演进

    8
    分布式训练系统包括多个组成部分,如AI集群架构、通信机制、并行技术等。基于这些内容,我们可以设计出不同的大模型算法。下面我们简单讲述下大模型的发展脉络,大模型的结构以及SOTA大模型算法。 大模型发展脉络 随着2017年Transformer结构的提出,使得深度学习模型参数突破了1亿,Transformer 取代RNN、CNN进入大模型时代。2018年谷歌发...
    赞 (0)阅读(13)评论(0)
    未分类

    飞书接入豆包大模型1.5、DeepSeek-R1,打造AI智能办公新体验

    7
    豆包大模型、DeepSeek-R1等主流 AI 大模型自问世以来,以其更强的能力、广泛的适用性受到了热烈欢迎,在字节跳动内部内容创作、虚拟交互、学习教育等多个领域发挥着重要作用。 作为“大模型+办公应用”的典型代表,飞书通过与豆包大模型1.5、DeepSeek 的深度结合,同样带来了智能化办公的全新体验。 > 豆包大模型 x DeepSeek,开拓办公...
    赞 (0)阅读(13)评论(0)
    未分类

    认识大模型Embedding技术,加代码实战

    2
    原创 皇子 皇子谈技术 2024年03月21日 19:54 广东 大家好,我是皇子。 有朋友说想学习大模型应用开发技术,让我谈一谈。 首先大模型应用开发技术不需要我们掌握机器学习和深度学习的算法,但是要有编程思维,python 基础,然后跟着下面的步骤走,就能学得明白。 下面正式开始认识大模型 Embedding 的理...
    赞 (0)阅读(54)评论(0)
    未分类

    讲清 Transformer 模型架构论文(四)

    8
    原创 huangz 皇子谈技术 2024年01月09日 08:49 广东 今天要分享的是整个论文中最核心的部分“模型架构(Model Architecture)” Transformer 模型架构论文《Attention Is All You Need》发表在 NeurIPS 会议上,同时受到论文模板的影响,论文篇幅极...
    赞 (0)阅读(46)评论(0)
    未分类

    讲清 Transformer 模型架构论文(三)

    1
    原创 皇子 皇子谈技术 2024年01月08日 09:20 广东 Transformer 模型架构论文《Attention Is All You Need》发表在 NeurIPS 会议上,同时受到论文模板的影响,论文篇幅极致压缩为 8 页的精华,所以我接下来打算分为几部分来讲清,论文地址放在底部链接。 讲清 Trans...
    赞 (0)阅读(59)评论(0)
    未分类

    讲清 Transformer 模型架构论文(二)

    1
    原创 huangz 皇子谈技术 2024年01月07日 09:26 广东 Transformer 模型架构论文《Attention Is All You Need》发表在 NeurIPS 会议上,同时受到论文模板的影响,论文篇幅极致压缩为 8 页的精华,所以我接下来打算分为几部分来讲清<上一篇请看:讲清 Tran...
    赞 (0)阅读(48)评论(0)
    未分类

    讲清 Transformer 模型架构论文(一)

    1
    原创 huangz 皇子谈技术 2024年01月05日 08:10 广东 Transformer 模型架构论文《Attention Is All You Need》发表在 NeurIPS 会议上,同时受到论文模板的影响,论文篇幅极致压缩为 8 页的精华,所以我接下来打算分为几部分来讲清,论文地址放在底部链接。 Neur...
    赞 (0)阅读(49)评论(0)
    未分类

    LLM经典论文速读版,看完感觉自己通透了

    32
    读不下去的,略读也是不错,美名曰“好读书,不求甚解;每有会意,便欣然忘食。” 大家好,我是皇子。 对于渴望深入理解AI的爱好者和研究者来说,阅读经典论文不仅是获取知识的途径,更能让我们产生新的思维方式。 历史文章分享过一次《Attention is All You Need》论文的精读,我也不是算法和机器学习的从业者,有很多不解,但是不影响我在后面学习大语言...
    赞 (0)阅读(53)评论(0)