第274章 讲座

离语 semaphore 1469 字 1个月前

觉等问题。RAG与LLM的集成得到了迅速的应用,提高了自然语言处理任务的性能,并且使得模型

能够更好地利用外部知识和背景信息。

自2020年起,全球大语言模型在自然语言处理、计算机视觉、语音识别、推荐系统等领域表

现出卓越技术优势,市场规模持续增长,预计到2028年将达到1095亿美元。国外大模型产品研发

在2021年进入高速发展期,谷歌、OpenAI、英伟达、微软等公司都推出了自主研发的大模型,截

至2023年7月底,国外已发布了138个大模型。我国大模型发展迅速,与国际前沿保持同步,百

度、腾讯、清华大学、北京航空航天大学等单位都推出了自己的大模型,截至2023年七月底,我

国已发布130个大模型。

2.2知识抽取

知识抽取主要分为命名实体识别和关系抽取两方面。命名实体识别(NER)任务,旨在识别与

特定语义实体类型相关联的文本跨度。该任务最早于1991年由Rau等人提出。随着信息理解、人

工智能等领域的顶级会议对NER任务的评测,其定义逐渐细化和完善,并逐渐成为自然语言处理

(NLP)领域的重要组成部分。然而,不同领域对实体类型的定义存在差异,因此NER模型的构建

取决于特定领域任务需求,通常涵盖人物信息、地点信息和组织机构信息等。对于英语、法语、西

班牙语等外语文本,通常采用单词作为基本单位,因此基于这些语言的NER模型主要关注单词本身

的语义特征和上下文信息。然而,中文语料文本通常由字符构成,需要考虑字符的语义信息和词汇。

特征,同时引入其他表征信息来提升模型性能,如中文分词(CWS)、语义部分标签(POS)等外部

信息,因此构建中文命名实体识别(CNER)模型更为复杂。目前,NER任务的研究方法主要包括基

于词典和规则的方法、基于机器学习(ML)的方法以及基于深度学习(DL)的方法。

今天为什么讲座要那么长时间。

(https://www.dingdian555.cc/html/3316/3316863/11110880.html)

www.dingdian555.cc。m.dingdian555.cc