投稿指南
一、本刊要求作者有严谨的学风和朴实的文风,提倡互相尊重和自由讨论。凡采用他人学说,必须加注说明。 二、不要超过10000字为宜,精粹的短篇,尤为欢迎。 三、请作者将稿件(用WORD格式)发送到下面给出的征文信箱中。 四、凡来稿请作者自留底稿,恕不退稿。 五、为规范排版,请作者在上传修改稿时严格按以下要求: 1.论文要求有题名、摘要、关键词、作者姓名、作者工作单位(名称,省市邮编)等内容一份。 2.基金项目和作者简介按下列格式: 基金项目:项目名称(编号) 作者简介:姓名(出生年-),性别,民族(汉族可省略),籍贯,职称,学位,研究方向。 3.文章一般有引言部分和正文部分,正文部分用阿拉伯数字分级编号法,一般用两级。插图下方应注明图序和图名。表格应采用三线表,表格上方应注明表序和表名。 4.参考文献列出的一般应限于作者直接阅读过的、最主要的、发表在正式出版物上的文献。其他相关注释可用脚注在当页标注。参考文献的著录应执行国家标准GB7714-87的规定,采用顺序编码制。

人工智能技术安全与伦理的思考

来源:数字化用户 【在线投稿】 栏目:期刊导读 时间:2020-12-28
作者:网站采编
关键词:
摘要:近十多年来,云计算范式的成熟带来了算力的提升,与此同时全球范围的数字化,使得汇聚和共享的数据量呈指数式增长,再加上算法与机器学习通过融合当今物理学、生物学、神经科

近十多年来,云计算范式的成熟带来了算力的提升,与此同时全球范围的数字化,使得汇聚和共享的数据量呈指数式增长,再加上算法与机器学习通过融合当今物理学、生物学、神经科学和心理学等学科的知识后取得了重大进展。在算力、数据及算法三者的强力支撑下,人工智能技术(AI)异军突起,目前已经广泛的应用于社会、经济和政治生活的各个领域,创造了极高的价值。

具体而言,如AI技术应用于制造业,提高了生产效率;在医疗领域中应用AI技术,促进了医学专家系统,能够为复杂病例提供辅助诊断;投资领域应用AI技术则可以提供复杂的投资决策;数字营销中应用AI技术能够为用户提供定制化的信息;而个性化的数字媒体能够高效地提供信息。总而言之,人工智能在诸多领域表现地比人类更优秀,将引领新一轮数字革命。

当今人工智能技术虽然发展态势良好,也已取得了相当大的成就,但尚未完全成熟,并未出现出类人智能的迹象。从技术发展来看,目前人工智能技术主要局限于使用数据驱动方法来解决特定问题,即其应用类型为面向特定任务而非通用问题。传统的人工智能技术主要基于优化理论及数学建模,优化方法服务于高效解决特定问题这一目标,而数学建模则通过映射来处理输入输出,从而实现模式识别、学习和预测。虽然可以看到AI在棋类游戏击败了人类选手,但应当明了棋类游戏所需智能仅属于人类智力活动的一种,另外棋类游戏具有规则固定、输赢目标也很明确的特点,但在现实世界中,规则首先是模糊、不明确的,而目标则可能是动态变化的。因此当前人工智能技术的发展,距离人们所期望的拥有真实智慧或者实现真正的人工智能这一目标仍然很遥远。人类擅长举一反三,即抽象学习某领域的知识之后,将学习成果拓展到其他领域,就像一个人类棋手会下好多种棋、一个运动健将精于多项运动一样,可以明确的是目前机器远远不能实现此类功能,这是因为机器通常是根据特定的任务目标而设计的,即便某些相似任务之间差异非常细小,但仍然需要对机器重新编程来适应新任务。对于当前人工智能技术的发展状态,我有两个基本判断:

● AI固然能在国际象棋和围棋中击败人类棋手,但它们还无法创造新游戏;

● AI或许能通过大学入学考试,但它们不会问不出什么好的问题;

因此我相信,真实的机器智慧应当像人类一样能通过学习、总结和运用所学的成果来解决跨领域的问题,这才是人工智能技术发展的未来,也是前所未有的挑战,尤其在安全方面还存在算法偏见和算法黑箱的情况下。

当前的机器学习效果易被训练数据的质量和算法中的预设前提两个因素所左右,而更让人担忧的是大多数机器学习并无自主校正机制。算法偏见和数据偏差带来的最终结果是决策偏差、模型不稳定性及结果易被操纵,只要提供不完整的数据集就很容易来操纵训练成果,该问题的教训也很多:如人类采纳由AI推荐的投资建议但实际造成了经济损失、由AI作出的信用评价使得贷款被拒绝、听从AI的医疗诊断但最终导致医疗事故等,当然还有一些在数字营销及选举中都出现过极其恶劣的现实操纵事例,这些现象很难不让人对于人工智能应用的安全性和伦理性进行探讨和反思。数据永远不会尽善尽美,人们也无法穷尽所有自然现象背后的规律来设定一个完美的算法模型,那么我们应当如何让人工智能具备足够的鲁棒性来容忍数据错误和不妥假设呢?首先这是技术问题的本质,也就是统计分析中常见的过度拟合和过度泛化问题。1994年笔者在IEEE神经网络通讯中发表的“一种鲁棒的反向传播神经网络学习算法” 研究成果,即提出针对训练数据不完全的情形来实现鲁棒机器学习方法。

与人们所熟知的决策理论略有不同,使用神经网络学习解决问题的逻辑并不透明,外人通常无从知晓结果从何而来、又为何如此,也就是常说的人工智能黑箱问题,这让人工智能技术发展面临透明度的挑战。

当然更复杂的问题还在于道德、伦理层面,例如在生产中应用人工智能技术能够提高效率和生产力,减少或替代人类劳动力,但这项成果可能最终只会让少数人受益,有违普惠原则。人工智能技术还能被用于操纵人类的行为,常见的事例如游戏成瘾、投票成见、优先行为(preferential behavior)等,在优先行为中,人们将再也不能通过自主选择来阅读或看到自己希望读或看的东西,而只能被动接受算法强推的结果。在前面已经讨论过当前AI的训练过度依赖数据质量,而且不良数据必然导致有偏见的学习成果。退一步说,数据对于训练人工智能如此重要,但在训练和使用过程中应当如何保护个人隐私和数据安全?另外开发人员可能会将自身的思维方式、道德信仰等融入算法中,最终这些算法未必具备可被社会认可的完备道德。更让人担忧的是,如果未来有一天机器人如同人类开始具备感知能力并产生情感意识,那是否应当赋予它们一些人类的基本权利?

文章来源:《数字化用户》 网址: http://www.szhyhbjb.cn/qikandaodu/2020/1228/1021.html



上一篇:儒学文献特色数据库构建研究 ——以曲阜师范
下一篇:谈谈“意识转移”这事儿

数字化用户投稿 | 数字化用户编辑部| 数字化用户版面费 | 数字化用户论文发表 | 数字化用户最新目录
Copyright © 2018 《数字化用户》杂志社 版权所有
投稿电话: 投稿邮箱: