剑桥雅思16Test4阅读passage3原文翻译
剑16完整版新鲜出炉啦!!包含完整的 4个test和对应音频,大家可以好好利用起来~~《剑雅》 系列作为雅思考试的官方指南,雅思考试风向标。它在雅思备考中的重要性不必再过多强调啦。利用新的剑16可以熟悉了解题型分布以及题目难度等级上有哪些变化,然后针对性查漏补缺做准备哦。在下文中小编整理了剑桥雅思16Test4阅读passage3原文翻译的信息,一起来看看吧。
剑桥16电子版本,请扫描二维码,暗号“优化+剑桥16全解”,会有老师联系并发送资料。
1.剑桥雅思16Test4阅读passage3原文翻译
对待人工智能的态度
A 人工智能已经能够预测未来了。警察正利用它了解犯罪可能发生的时间和地点医生则可以利用它来预测病人什么时候最有可能心脏病发作或中风。研究人员甚至正尝试 赋予人工智能想象力,让它可以提前做好意外防范。我们在生活中做很多决定时都需要做好预测,而人工智能往往总是比人类更擅长预测。然而,尽管有了这些技术进步,我们似乎仍然对人工智能的预测能力严重缺乏信心.最近的案例显示,人们不喜欢依赖人工智能,而更偏向信任人类专家,即使这些专家是错的。如果我们想让人工智能真正造福人类,那我们就需要寻求一种方式让人类信任它。为此,我们首先得明白为什么人们不愿意信任人工智能。
B 以“沃森肿瘤机器人”为例,这是科技巨头IBM的超级计算机程序之一。他们试图向治疗癌症的医生推广这个项目,结果彻底失败了。人工智能有希望针对12种癌症的治 疗提供最 佳的建议方案,这12种癌症占全世界癌症病例的80%。但当医生们首 次跟沃森互动时,他们才发现左右为难。一方面,如果沃森提供的治疗建议与他们自己的想法吻合,医生们会觉得沃森的建议没有意义。这个超级计算机只是告诉了他们已知方案,这些建议不会改变实际的治疗。另一方面,如果沃森生成的建议与这些专家的想法矛盾,那医生们通常会说沃森能力 不足。这台机器解释不了为什么它的治疗方案合理,因为它的机器学习算法太过复杂,人类不能完全理解。结果,这引起了(医生)更大的怀疑和不信任,进而很多医生选 择无视这些看似稀奇古怪的人工智能的建议,坚持(相信)自己的专业知识。
C 这只是其中一例,它表明人们对人工智能缺乏信心,也不愿接受人工智能提供的建议。对他人的信任通常是基于我们理解他人的想法并对他们的可靠性有所有感受。这会产 生一种心理上的安全感。然而,对于绝大多数人而言,人工智能是全新而陌生的。即使人工智能可以被准确地解释清楚(实际情况并非总是如此),但它做决定的过程太复杂,大部分人仍无法理解。此外,与我们不懂的东西互动会引起焦虑,并给我们带来一种无法掌控的感觉。因为人工智能通常在幕后工作,所以很多人对它的实际工作并不熟知。他们反而非常清楚人工智能出错的情况。媒体(也)过度关注人工智能犯错,向我们强调不能依赖这一技术。(事实上,)机器学习不是万无一失的部分原因在于机器的设计者考虑不周。
D 人们对人工智能的感触还有更深层次的原因。在近期的一项实验中,来自不同背景的人观看了有关人工智能的科幻电影,并被问及有关日常生活中自动化的一些问题。结果发现,无论他们所观看的电影对人工智能的表现是正面还是负面的,仅仅是在屏幕上观看未来技术这一行为本身就能让受试者的态度出现两极分化。乐观主义者对人工
智能更加狂热,而怀疑者则对人工智能更加谨慎。这表明人们心怀偏见地利用与人工智能相关的证据来支持他们现有的态度,这是一种被称为“证实性偏见”的人类固有倾向。随着人工智能更加频繁地出现在媒体或娱乐行业中,它会使社会分裂成“受益于人工智能”和“拒绝考虑人工智能”两个派系。 更加确切地说,那些拒不接受人工智能好处的一大群人会让自己处于极度不利的境地。
E 幸运的是,我们已经对如何提升对人工智能的信任度有了一些想法。正如以上研究发现的那样,只要体验过人工智能,人们就会改变对它的看法。同时,有证据表明你使用互联网等其他技术越多“你就越信任它们。另外一个解决办法是更多地展现人工智能所使用的算法及其意义。几家知名社交媒体公司和在线市场已经发布了有关政府要求和监测信息披露的透明度报告。类似的操作能够帮助人们更好地理解计算机算法做决定的方式。
F 研究表明,让人们在某种程度上控制人工智能做决定也能提高信任度,还能让人工智能学习人类的经验。例如,一项研究显示,当人们能够自由地微调电脑程序中的算法时, 他们对算法所做的决定会更加满意,会更加相信算法精妙,也更愿意在将来使用它。 我们不需要理解人工智能系统内部错综复杂的工作原理,但如果人们要对人工智能的 工作负部分责任的话,他们就会更愿意让人工智能融入他们的生活