安徽省定远县
二中
2024-2025
学年高一(下)
5
月检测语文试卷
一、现代文阅读:本大题共
9
小题,共
35
分。
阅读下面的文字,完成下面小题。
材料一:
人工智能从诞生伊始,就以
“
像人类一样思考
”
为终极目标。在
1956
年美国达特茅斯会议上,
“
人工智能
”
这一概念首次被提出,人类开始设想
“
让机器能像人类一样认知、思考和学习
”
。
1976
年,拉斐尔提出:
“
人工智能是一门科学,这门科学让机器做人类需要智能才能完成的事。
”
进入
21
世纪后,第三次人工智能浪潮开启,人工智能被认为是通过采集和分析大量数据,实现自动学习、分析和推理的智能化机器。英国大数据专家迈尔
•
舍思伯格指出:
“
大数据的核心就是预测。它是把数学算法运用到海量数据上来预测事情发生的可能性。
”
这种基于大数据的分类、预判,与人类的思考模式具有异曲同工之妙,但也不可避免地继承了人类的偏见。
数据是算法的基础,如果训练数据隐含偏见,算法输出的结果也有可能出现偏见,即所谓的
“
偏见进,偏见出
”
。数据偏见又可以分为
“
采集阶段的偏见
”
和
“
编码阶段的偏见
”
。在数据采集阶段,获取数据的目的、方
式和使用的媒体,都可能成为偏见的来源。以波士顿的
Street Bump
智能手机应用程序为例,它使用手机的加速计来检测路面的坑洞,而不需要城市工作人员在街上巡逻。当波士顿市民下载该应用程序并开车行驶时,其手机会自动告知市政部门有哪些需要修复的路面。这是一个富有创意的应用,但也是带有偏见的应用。这种数据收集方式决定了其更适用于富裕的地区,因为那里有更多的人拥有智能手机。数据的编码技术也与偏见有着极大关系。编码是指用人工方式对数据进行标注,标注过的数据集对其法的发展至关重要。现代
AI
技术的一个重要分支就建立在对
标注过的数据的学习之上,亦即所谓的
“
监督式学习
”
。然而,这些标注极有可能带有数据标注者的主观判断和个人烙印。
即使训练数据集不具备偏见,算法也有可能通过自我学习制造偏见。算法系统就像是个
“
黑箱
”
,机器的学习和训练是不为外人所熟知的。机器学习离不开环境,它在与环境信息交互的过程中学习和复制种种带有偏见的行为。
2016
年,一款由微软公司专门为年轻人推出的智能聊天机器人
Tay,
在经过不到
24
小时与年轻人的聊天学习后,变得脏话连篇,言论带有种族歧视,被迫下架。算法不能决定用户输入数据的性质或特点,只能被动对输入的
各类数据进行学习,换句话说,若输入数据的互动者
安徽省定远县二中 2024-2025学年高一(下)5月检测语文试卷-普通用卷.docx