ISSN 1004⁃9037,CODEN SCYCE4 http:// sjcj. nuaa. edu. cn Journal of Data Acquisition and Processing Vol. 38,No. 5,Sep.2023,pp.1017-1034 E⁃mail:sjcj @ nuaa. edu. cn DOI:10.16337/j.1004⁃9037.2023.05.002 Tel/Fax: +86⁃025⁃84892742Ⓒ 2023 by Journal of Data Acquisition and Processing ChatGPT大模型技术发展与应用 1,2夏润泽1,2, 李丕绩 (1. 南京航空航天大学计算机科学与技术学院,南京 211106;2. 模式分析与机器智能工业和信息化部重点实验室(南京航空航天大学),南京 211106) 摘要: 通过回顾深度学习、语言模型、语义表示和预训练技术的发展历程,全面解析了ChatGPT的技术渊源和演进路线。在语言模型方面,从早期的N⁃gram统计方法逐步演进到神经网络语言模型,通过对机器翻译技术的研究和影响也催生了Transformer的出现,继而又推动了神经网络语言模型的发展。在语义表示和预训练技术发展方面,从早期的TF⁃IDF、pLSA和LDA等统计方法发展到Word2Vec等基于神经网络的词向量表示,继而发展到ELMo、BERT和GPT⁃2等预训练语言模型,预训练框架日益成熟,为模型提供了丰富的语义知识。GPT⁃3的出现揭示了大语言模型的潜力,但依然存在幻觉问题,如生成不可控、知识谬误及逻辑推理能力差等。为了缓解这些问题,ChatGPT通过指令学习、监督微调、基于人类反馈的强化学习等方式在GPT⁃3.5上进一步与人类进行对齐学习,效果不断提升。ChatGPT等大模型的出现,标志着该领域技术进入新的发展阶段,为人机交互以及通用人工智能的发展开辟了新的可能。 关键词: 自然语言处理;语言模型;预训练技术;ChatGPT 中图分类号: TP183 文献标志码:A Large Language Model ChatGPT: Evolution and Application XIA Runze1,2, LI Piji1,2 (1. College of Computer Science and Technology, Nanjing University of Aeronautics & Astronautics, Nanjing 211106, China; 2. MIIT Key Laboratory of Pattern Analysis and Machine Intelligence (Nanjing University of Aeronautics & Astronautics), Nanjing 211106, China) Abstract: This paper comprehensively analyzes the technical origins and evolution of ChatGPT by reviewing the development of deep learning, language models, semantic representation and pre-training techniques. In terms of language models, the early N-gram statistical method gradually evolved into the neural network language models. Researches and advancements on machine translation also led to the emergence of Transformer, which in turn catalyzed the development of neural network language models. Recording semantic representation and pre-training techniques, there has been an evolution from early statistical methods such as TF-IDF, pLSA and LDA, to neural network-based word vector representations like Word2Vec, and then to pre-trained language models, like ELMo, BERT and GPT-2. The pre-training frameworks have become increasingly sophisticated, providing rich semantic knowledge for models. The emergency of GPT-3 revealed the potential of large language models, but hallucination problems like uncontrollable generation, knowledge fallacies and poor logical reasoning capability still 收稿日期:2023⁃08⁃20;修订日期:2023⁃09⁃15

猜你喜欢
2.7万次浏览
5473人收藏
ChatGPT大模型技术发展与应用

ChatGPT大模型技术发展与应用

摘要:通过回顾深度学习、语言模型、语义表示和预训练技术的发展历程,全面解析了ChatGPT的技术渊源和演进路线。在语言模型方面,从早期的Ngram统计方法逐步演进到神经网络语言模型,通过对机器翻译技术的研究和影响也催生了Transformer的出现,继而又推动了神经网络语言模型的发展。在语义表示和预训练技术发展方面,从早期的TFIDF、pLSA和LDA等统计方法发展到Word2Vec等基于神经网络的词向量表示,继而发展到ELMo、BERT和GPT2等预训练语言模型,预训练框架日益成熟,为模型提供了丰富的语义知识。GPT3的出现揭示了大语言模型的潜力,但依然存在幻觉问题,如生成不可控、知识谬误及逻辑推理能力差等。为了缓解这些问题,ChatGPT通过指令学习、监督微调、基于人类反馈的强化学习等方式在GPT3.5上进一步与人类进行对齐学习,效果不断提升。ChatGPT等大模型的出现,标志着该领域技术进入新的发展阶段,为人机交互以及通用人工智能的发展开辟了新的可能。关键词:自然语言处理;语言模型;预训

ChatGPT在人工智能技术发展中的应用

文/李章凯王彤宇作为一种基于深度学习和自然语言处理的技术,ChatGPT拥有独特的模型架构、大规模数据集和高效的训练方法。在应用方面,ChatGPT已广泛应用于教育、商业、娱乐、语言翻译和创意写作等领域,展现了强大的潜能,但也面临信息过载、内容质量、数据隐私、安全性和伦理等挑战。年来,随着深度学习和自然语言处理技术的练Transformer模型(Generative Pre-trained 迅速发展,AI聊天机器人已经成为学术研Transformer,GPT)正是基于这种思想建立的。近究和商业领域的热门话题。作为前沿的AI技术之首先在大量的文本数据上进行预训练,从中学习一,ChatGPT引起了广泛的关注和讨论。ChatGPT到语言的基本结构和模式,然后再对特定任务进能够在短时间内获得如此高的关注度和应用率,行微调,如机器翻译或文本生成。这种训练方法其背后的支撑技术不容小觑,且与传统AI聊天机使GPT能够捕捉到复杂的语言特征,并在多种NLP器人存在本质的差异。任务中展现出卓越的性能。作为GPT的一个应用实例,Chat

ChatGPT的模型解读与可视化方法

ChatGPT模型概述ChatGPT是由OpenAI开发的一种基于Transformer架构的对话生成模型。与传统的基于序列模型的对话系统相比,ChatGPT使用了多层自注意力机制,能够对输入的文本序列进行自适应建模。ChatGPT的训练过程包括预训练和微调两个阶段。在预训练阶段,模型通过大规模的文本数据进行自我监督学习,学会了语言的概念和结构。在微调阶段,模型通过与人类操作者的对话进行优化,使其能够生成富有语义和逻辑的回答。 ChatGPT模型解读方法1.探索隐藏层表示ChatGPT的解读方法之一是探索模型中的隐藏层表示。每一层的隐藏状态都包含了对输入文本序列的不同抽象级别的理解。通过可视化隐藏层状态,我们可以更好地理解模型如何对输入进行编码和解码。一种常用的可视化方法是使用t-SNE算法将高维的隐藏层表示映射到二维平面,从而观察不同文本之间的相似性和差异性。2.局部感知分析ChatGPT模型中的自注意力机制使得模型可以同时对输入序列中的所有位置进行关注,然而,它也可能导致对某些关键位置的过度关注或忽视。为了解读模型在生成结果时所关注的关键位置,我们可以利用局部感知分析方法。通过计算不同位置在生成回答时的重要性权重,我们可以了解到模型在生成过程中的关注点。 ChatGPT模型可视化方法1.词级注意力可视化ChatGPT模型通过自注意力机制来捕捉输入序列中不同词之间的依赖关系。为了可视化模型生成回答时对输入序列中不同词的注意力,我们可以使用热力图等方式呈现注意力权重的分布情况。这样可以直观地观察到模型在生成回答时对不同词的关注程度。2.上下文重要性可视化ChatGPT模型的生成回答通常依赖于上下文信息。为了理解模型对上下文的理解和关注程度,我们可以通过可视化上下文重要性的方法来揭示这一过程。通过计算模型生成回答时对上下文中不同位置的重要性权重,我们可以观察到模型在不同上下文情况下对每个位置的关注程度。 ChatGPT模型解读与可视化方法的应用1.模型调优与错误分析通过应用上述的ChatGPT模型解读与可视化方法,我们可以对模型进行调优和错误分析。对于一些生成错误的回答,我们可以通过检查隐藏层的表示和局部感知分析来了解模型为什么会产生这样的错误。这有助于我们针对性地调整模型的训练策略,提高其生成回答的准确性和流畅性。2.用户反馈分析ChatGPT是用来与用户进行对话的,因此用户反馈分析也是一个重要的应用场景。通过可视化模型在生成过程中的注意力和关注点,我们可以了解模型是如何理解和衡量用户输入的。这有助于我们分析用户反馈的原因,从而进一步改进模型和优化用户体验。结论ChatGPT是一种强大的对话生成模型,但其复杂性也为我们解读和理解带来了一定的困难。

ChatGPT技术、国产化尝试和开源模型

ChatGPT技术、国产化尝试和开源模型元语AI 徐亮,www.clueai.cn自然语言大模型Model-as-a-Service服务商 概览•背景•1.ChatGPT技术•1)技术演进:GPT-->InstructGPT-->ChatGPT•2) 存在什么样的问题?•3)学习三阶段•4)数据组织和效果评估•2.国产化•1)背景与问题 •2)解决思路•3)效果与实践•3.开源模型•1)中文开源模型•2)基于自有数据训练出本地模型•3)可能的问题、差距和如何进一步提升效果背景•ChatGPT: 通用功能型助手•2022年12月5日,OpenAI首席执行官Sam Altman在社交媒体上发文称,ChatGPT推出五天,已突破100万用户•AI聊天机器人ChatGPT爆火出圈!微软正洽谈100亿美元增持股份背景为什么这么受欢迎:1)更好的理解用户意图与生成能力---->更好的效果;2)便利的使用形式(对话机器人)----->人人都能使用ChatGPT技术:模型演进ChatGPT技术:之前的模型存在什么样的问题?•对齐问题:大模型生成的响应不符合用户意图•原因:语言模型训练的训练目标是预测下一个词,而不是按照用户意图来生成•怎

ChatGPT的运行模式、关键技术及未来图景

Chat GPT的运行模式、关键技术及未来图景摘要:“大家都觉得Chat GPT很神奇,但实际上,它使用的并不是一种有智慧的技术”,中国电信首席专家、美国贝尔实验室院士毕奇在接受记者采访时表示,ChatGPT是一个开源的自然语言处理模型。成立于1925年的美国贝尔实验室是自然语言处理的先驱之一,是晶体管、激光、太阳能电池、发光二极管、C语言等等许多重大发明的诞生地,至今共获得9项诺贝尔奖。关键词:Chat GPT;运行模式;关键技术;未来图景引言针对Chat GPT热议,一部分人联想到当前中美之间的“科技战”、国内面临技术“卡脖子”的情形,感叹Chat GPT怎么又是外国提出来的,如“元宇宙”(metaverse)一样,为什么不是中国原创的;一部分人担心其对学生学习可能造成的偷懒甚至作弊情况而感到忧虑;一部分人则担心工作岗位被替代而失业,更多人则是在探讨以Chat GPT、Microsoft Bing为代表的人工智能机器人现象及其已经和可能产生的影响,它能做什么,不能做什么。如《教育研究》杂志社第一

大模型技术发展趋势与挑战

21.1 研究背景与意义. 21.2 研究目标与内容概述. 32.大模型技术概述. 42.1 定义与分类. 42.2 发展历程. 52.3 当前应用现状. 73.大模型技术的发展方向. 83.1 深度学习的演进. 83.2 Transformer架构的创新. 93.3 预训练与微调策略的优化. 104.大模型技术面临的挑战. 104.1 计算资源的瓶颈. 124.2 数据隐私与安全问题. 124.3 模型泛化能力的限制. 134.4 模型解释性与透明度问题. 145.未来发展趋势预测. 155.1 计算能力的提升与突破. 165.2 数据获取与处理技术的革新. 175.3 模型泛化与多模态融合. 185.4 算法创新与模型进化趋势. 196.结论与展望. 206.1 主要研究成果总结. 216.2 对未来研究的启示与建议. 211.内容概述本节主要探讨了大模型技术的发展趋势及其面临的挑战,旨在全面解析这一领域的现状与未来方向。本节详细分析了大模型技术在当前阶段的发展情况,包括其核心原理、应用场景以及存在的优势和不足。同时,也对可能影响该技术发展的关键因素进行了深入剖析,并展望了未来的发展方向和

ChatGPT在金融领域的应用发展探析

摘要:ChatGPT是基于深度学习对话生成模型的聊天机器人,其应用有利于提升金融服务的数字化、智能化和个性化水平,在金融行业有着巨大的需求和潜力。文章基于文献与案例研究,从ChatGPT的技术特点出发,系统阐述其在客户咨询、营销推荐、运营管理等方面的金融应用前景与价值,深入分析应用过程可能面临的挑战,并针对性地提出了对策建议,为ChatGPT在金融领域的健康发展提供借鉴和启示。关键词:ChatGPT;人工智能;大语言模型;金融科技模型能够更好地理解和生成对话文本。ChatGPT在多一、研究背景个对话生成任务和评测上都显示出了优于其他模型的ChatGPT是一种基于深度学习的自然语言生成模性能,如对话质量、对话多样性、对话一致性等。型,可以根据给定的上下文和目标生成流畅、连贯、有逻辑的文本。ChatGPT利用大规模的对话数据进行预ChatGPT的技术原理和架构是基于Transformer训练,能够捕捉对话的语言规律和人类的交流方式,的自然语言生成模型的,如图1所示。生成过程中,从而生

ChatGPT工作原理、关键技术及未来发展趋势

ChatGPT工作原理ChatGPT,全称Chat Generative Pre-trained Transformer,是一种基于Transformer架构的预训练语言模型。它通过大量文本数据训练,学习到语言的语法、语义和上下文信息,从而能够生成自然、流畅的语言。在ChatGPT中,最重要的工作原理是"Transformer",这是一种深度学习模型,由Google在2017年提出,并在自然语言处理领域得到了广泛应用。Transformer模型主要由两部分组成:编码器和解码器。编码器将输入的文本转换为向量表示,解码器则根据编码器的输出,生成新的文本。在训练过程中,ChatGPT通过最大化预测下一个单词的概率,来优化其生成文本的准确性。 ChatGPT关键技术1、预训练技术:ChatGPT使用大规模的语料库进行预训练,这些语料库包含了各种各样的文本数据,如新闻文章、博客文章、论坛讨论等。通过预训练,ChatGPT能够理解语言的语法、语义和上下文信息。2、Transformer架构:ChatGPT采用Transformer架构进行训练和预测。这种架构可以有效地处理长序列文本数据,并且能够捕捉到文本中的长期依赖关系。3、注意力机制:在Transformer架构中,注意力机制是一种关键的技术。它使得模型能够到输入序列中的重要部分,从而提高了模型的预测准确性。4、微调技术:ChatGPT使用微调技术来提高其在特定任务上的性能。微调技术是指在使用预训练模型时,针对特定任务进行小规模的训练和调整。 未来发展趋势随着技术的发展和应用的深入,ChatGPT将继续在自然语言处理领域发挥重要作用。以下是未来可能的发展趋势:1、模型规模的扩大:随着计算资源和数据量的增加,未来可能会看到更大规模的ChatGPT模型被训练和使用。这将使得模型能够更好地理解和生成复杂的语言现象。2、跨语言能力:目前,ChatGPT主要针对单一语言的训练和应用。未来,随着多语言数据资源的增加,可能会看到更多跨语言的ChatGPT模型被开发和部署。这将使得模型能够理解和生成不同语言的文本。3、更多的应用场景:随着ChatGPT技术的不断发展和完善,它的应用场景也将不断扩大。除了目前的聊天和问答系统外,它还可以被应用于自动翻译、情感分析、智能客服等更多领域。 光照传感器的原理光照传感器是一种检测物体表面光照强度或照度的传感器,其工作原理通常基于光电效应。具体来说,光照传感器内部有一个光敏元件,当光照射到光敏元件上时,光子与光敏元件相互作用,产生电子-空穴对,这些电子-空穴对进一步形成电流或电压信号。通过测量这些信号,可以得出光照强度或照度的数值。 光照传感器的应用光照传感器在多个领域中均有广泛的应用,以下是一些典型的应用场景:1、智能家居:光照传感器可以用于智能照明系统,根据室内光照情况自动调节灯光亮度,节省能源的同时提高居住舒适度。2、农业:在农业生产中,光照传感器可以实时监测作物的光照需求,为农业生产提供科学依据。3、工业生产:在工厂中,光照传感器可以用于监测生产线上的光照强度,以保证产品质量。4、环境保护:光照传感器可以用于监测环境中的光线污染,为环境保护提供数据支持。 光照传感器的发展趋势随着技术的不断进步,光照传感器也在向更广泛的应用领域和更精确的测量精度方向发展。具体来说,未来光照传感器的发展趋势有以下几个方面:1、高精度化:随着测量技术的发展,光照传感器的测量精度不断提高,能够更准确地反映环境中的光照情况。2、智能化:结合人工智能和物联网技术,光照传感器可以与其他设备进行联动,实现智能化的环境控制。3、多样化:为了满足不同领域的应用需求,光照传感器的种类将更加多样化,包括但不限于红外光照传感器、紫外线光照传感器等。4、集成化:未来光照传感器将更加集成化,将多种功能(如光强、照度、颜色等)整合在一起,使得测量更加方便快捷。然而,在光照传感器的发展过程中,也面临着一些挑战,如测量精度的稳定性、数据传输的可靠性、设备成本的控制等。 结论综上所述,光照传感器作为一种重要的传感器类型,在多个领域中具有广泛的应用前景。随着技术的不断发展,光照传感器的测量精度越来越高,功能越来越多样化,智能化和集成化程度也在不断提高。然而,在发展的过程中,还需要一些挑战和问题的解决,以实现其可持续发展。未来移动通信技术发展趋势与展望随着科技的飞速发展,移动通信技术已经深入到我们的日常生活中,且正在塑造着我们的生活方式。接下来,我们将探讨未来移动通信技术的发展趋势和展望。首先,5G和6G网络的发展将继续推动移动通信技术的进步。5G已经逐步商用,而6G的研究和发展也已在全球范围内展开。相比于前一代的移动通信技术,5G和6G将提供更高的数据传输速度、更低的延迟、更强大的网络连接以及更智能的网络优化。 人工智能人工智能是计算机科学的一个分支,旨在研究如何让计算机模拟人类智能的各种表现形式。未来,人工智能将在各个领域发挥重要作用,包括医疗、金融、交通和教育等。人工智能的应用将使这些领域的效率和准确性得到大幅提升,同时还将为人类解决许多难题。例如,通过人工智能技术,医生可以更准确地诊断疾病并制定治疗方案;金融机构可以利用人工智能技术进行更准确的风险评估和投资决策;交通领域的人工智能技术可以帮助减少交通事故并提高交通效率;教育领域的人工智能技术则可以为学生提供更个性化的教育服务。 量子计算量子计算是一种基于量子力学原理的计算方式,其速度远超传统的计算机。随着量子计算技术的不断发展,未来的计算机将具有更强的计算能力和更高的安全性。这意味着,人们可以解决以前无法解决的复杂问题,例如天气预报、药物研发和密码破解等。此外,量子计算还将在能源、环境和其他领域发挥重要作用。 云计算云计算是一种将计算资源和服务通过互联网提供给用户的模式。随着云计算技术的不断发展,未来的计算机将更加灵活和高效。用户可以通过任何设备随时随地访问数据和服务,而无需购买和维护昂贵的硬件设备。此外,云计算还将为企业提供更高效的IT基础设施和管理解决方案,降低企业的运营成本。

2025大模型原理、技术与应用:从GPT到DeepSeek

大模型又称大语言模型(Large Language Models)语言是人类交流思想、表达情感最自然、最深刻、最方便的工具“语言是继真核细胞之后最伟大人类历史上大部分知识是以的进化成就”语言文字形式记载和流传的社会生物学之父爱德华·威尔逊“语言本身就是人类有史以来最大的技术发明”詹姆斯·格雷克《信息简史》什么是自然语言处理?自然语言指的是人类语言,特指文本符号,而非语音信号自然语言处理(NaturalLanguageProcessing,NLP)用计算机来理解和生成自然语言的各种理论和方法属于认知智能是人类和动物的主要区别之一需要更强的抽象和推理能力运算智能感知智能认知智能能存储会计算能听会说能看会认能理解会思考“自然语言处理是人工智能皇冠上的明珠”自然语言处理成为制约人工智能取得更大突破和更广泛应用的瓶颈“深度学习的下一个大的进展应该是“深度学习的下一个前沿课题是让神经网络真正理解文档的内容”自然语言理解”诺贝尔奖得主、图灵奖得主、图灵奖得主、Meta AI负责

ChatGPT引发的大模型时代变革

计算机行业研究/深度报告ChatGPT 引发的大模型时代变革行业评级:增持主要观点:报告日期:2023-02-25 ChatGPT 带来大模型时代变革,数据要素重要性提升ChatGPT 是由OpenAI 研发的一种语言AI 模型,其特点在于使用海量行业指数与沪深300 走势比较语料库来生成与人类相似的反应。初代GPT 模型参数1.17 亿,GPT2 模型、GPT3 模型参数分别达到15 亿、1750 亿。不断提升的参数量级,使得ChatGPT3 当前已经能够应用在商业、研究和开发活动中。 当前此类参数体量庞大的模型,成为各大科技厂商研发重点。大模型的基础为高质量大数据。 ChatGPT 的前身GPT-3 就使用了3,000 亿单词、超过40T 的数据。 此类大数据基础的前提为三部分1)有效场景下的采集数据; 2)大数据的存储、清洗和标注; 3)数据质量检验。大模型发展之下,算力与网络设施建设成为刚需算力:ChatGPT 类人工智能需要更充足的算力支持其处理数据,带来更多高性能的算力芯片需求。英伟达表示,GPT-3 需要512 颗V100 显卡训练7 个月,或者1024 颗A100 芯片训练一个

ChatGPT的运行模式、关键技术及未来图景

摘要:美国人工智能实验室OpenAI开发的人工智能聊天机器人应用ChatGPT引发广泛热议,被认为是继互联网、智能手机之后,带给人类的第三次革命性产品。互联网开辟了“空间革命”,智能手机的出现带来“时间革命”,ChatGPT的横空出世有望形成“思维革命”,通过替代人类进行创作、创意、解答、咨询、翻译和客服等改变人类思考和处理问题的方式方法,由此重塑各行业生态乃至整个世界。关键词:ChatGPT;运行模式;关键技术;未来图景中图分类号:TP18文献标识码:A文章编号:1005-9245(2023)04-0113-10埃隆·马斯克称ChatGPT将颠覆世界;微软公务无关的超大型LLM,可以从海量的数据中学习各种知识,LLM以生成一切的方式解决各类实际问题。除此之外,AGI能够听懂人类的命令,便于人类使用。司以数百亿美元投资ChatGPT,并计划将其整合到微软的Ofice办公软件和Bing搜索引擎之中;部分高校和学术机构开展了关于使用ChatGPT写论(一)幕后:大型语言模型ChatGPT“无比强大”的能力主要得益于其依文是否合

ChatGPT的发展现状、风险及应对

摘要】以ChatGPT为代表的大语言模型实现了算法、算力、数据等技术的深度融合,推动人工智能产业进入“通用大模型+具体业务场景”的新时代。本文探讨ChatGPT在人工智能领域的范式变革和面临的风险挑战。基于人工智能的分类和本质,分析生成式人工智能模型的重要性和应用前景;从信息安全、网络安全、数据安全和社会稳定性的角度,分析ChatGPT带来的挑战;从顶层设计、风险管控、伦理道德治理、知识体系构建、隐私保护和人才培养等方面,思考相应对策,促进人工智能可持续发展。【关键词】人工智能;ChatGPT;内容生成;信息安全模预训练模型的出现奠定了基础。第二,计算能在带来技术发展红利的同时,也引力的提升。现代计算机和云计算技术的发展,使发对此类技术的使用规范、监督和风险管理等问原来的摩尔定律不再适用,也使训练更深、更大任何事物往往都具有两面性,ChatGPT题的讨论。认清ChatGPT的本质和局限性、研判的深度神经网络成为可能。第三,算法的改进。潜在的风险和

2025大模型原理、技术与应用:从GPT到DeepSeek

大模型又称大语言模型(Large Language Models)语言是人类交流思想、表达情感最自然、最深刻、最方便的工具"语言是继真核细胞之后最伟大人类历史上大部分知识是以的进化成就"语言文字形式记载和流传的社会生物学之父爱德华·威尔逊"语言本身就是人类有史以来最大的技术发明" 詹姆斯·格雷克《信息简史》什么是自然语言处理?自然语言指的是人类语言,特指文本符号,而非语音信号n 自然语言处理(Natural Language Processing ,NLP)用计算机来理解和生成自然语言的各种理论和方法n属于认知智能是人类和动物的主要区别之一需要更强的抽象和推理能力运算智能感知智能认知智能能存储会计算能听会说能看会认能理解会思考自然语言处理是人工智能皇冠上的明珠"自然语言处理成为制约人工智能取得更大突破和更广泛应用的瓶颈"深度学习的下一个大的进展应该是深度学习的下一个前沿课题是让神经网络真正理解文档的内容自然语言理解图灵奖得主、Meta AI负责人诺贝尔奖得主、图灵奖得主、Yann LeCun深度
勾选下载
全部下载(13篇)
搜索
下载夸克,免费领特权
下载

ChatGPT大模型技术发展与应用

PDF2.7M 18
1/18
2/18
3/18
4/18
展开阅读剩余14页
复制