辽宁省本溪市满族自治县县级重点高中协作体
2024
-
2025
学年高三二模考试语文试题
一、现代文阅读(
35
分)
(一)现代文阅读Ⅰ(本题共
5
小题,
19
分)
阅读下面的文字,完成下面小题。
材料一:
最近美国的
AI
实验室越来越发现,美国
AI
模型之所以算力需求很大,一个重要的原因是他们的训练素材是英文的,而英文就是个“无底洞”。
比如说“心”,它的英文是
heart
,“病”的英文是
disease
,但“心脏病”却是
cardiopathy
,跟心和病没有一点的关系。又如,猪的英文是
pig
,肉的英文是
meat
,但猪肉却是
pork
。
但你要是换成中文,“心脏”加“病”,“猪”加“肉”。你只要懂得组词的两个字是什么意思,你就知道连起来它是什么意思。
现在英文按这个逻辑,每年要新增一万多个新词,而且基本上都和旧词没什么关系。但中文就简单多了,就像是乐高积木,“心脏”加“病”是“心脏病”,“脑”加“机”是“脑机接口”,“无人”加“机”就是“无人开的飞机”,谁都能理解,对吧?
所以为什么中国模型能节省训练成本,很可能这也是原因之一。这场
AI
的算力对决,在秦始皇书同文、车同轨的那一刻起,可能就预示了最终的结果。
当英语在专业术语的泥潭中艰难跋涉时,汉字正以
8000
年文明的磅礴势能为人类推开
AI
时代的大门。
(摘编自《
AI
时代,中国或将凭借中文优势领先全球!》)
材料二:
简单说说大语言模型的训练和输出结果是怎么得来的,大语言模型的训练就像让机器阅读海量文本学习文字的组合规律,通过调整内部参数逐步形成语法和语义的组合链路关系。输入问题后,模型会根据学到的知识像猜词游戏一样,逐步预测最可能的下一个词,最终生成连贯的回答。说得更直白一些那就是,大语言模型输出的结果就是对文字的排列组合,这种组合的链路就是类似神经网络的思考链路。
大语言模型想要得到更具有逻辑性、更符合人类思考过程的结果,就需要海量的学习资料的训练和人工的纠偏,这个学习资料就是大语言模型参数量,如
DeepSeekR1671B
满血版,
671B
代表该模型具有
6710
亿个可训练参数,这些参数就是各类文字的不同组合内容。西方科技人员理解
DeepSeek
的做法后,得出一个不敢说的结论,那就是中文的原理天然适配神经网络分布式表征,在中文的机制中,每个字如同单个神经元,思考时能快速联动、自由组合、弹性十足,中文仅仅凭借
3500
个汉字的不同组合就让模型参数效率得到
指数级提升。反观英文,现代英语单词的词汇量已经超过百万,普通人一辈子也记不完。更别说是在
【语文】辽宁省本溪市满族自治县县级重点高中协作体2024-2025学年高三二模考试试题(解析版).docx