中青在线新闻网

发展人工智能技术规矩不可少

[科学论文]

作者:张建军(天津师范大学新闻学院)

近日,两起与人工智能技术应用有关的事件引起了社会的广泛关注。第一个是在社交媒体上刷卡的视频编辑软件。该软件可以轻松快速地将视频中的字符更改为用户上传的任何人的面部。事实上,这种视频转换面很久以前就可以通过专业的视频编辑软件来实现,但是用户需要相应的技术并且过程复杂。如今,人工智能技术简化并加速了这一复杂的技术过程,普通人可以轻松控制它。第二个是学生行为分析图,人工智能技术向学生展示仰视,看电话,鞠躬,做笔记,打瞌睡等作用。

变脸应用中有两点需要我们保持警惕:第一,这项技术对社会信息传播秩序的影响。传统上,视频到信息的保真度高于文本和图片的保真度。视频可以相对准确地传输信息,是社会信息传输系统的重要媒介标志。这种易于使用,简单易变的应用程序如果被滥用,将不可避免地导致通信顺序混乱。其次,怀疑这种应用软件收集面部信息的合法性,安全性和可靠性。诸如人脸,虹膜,指纹等生物识别信息是重要的个人隐私信息。这种类型的信息比地址,密码和其他类型的信息重要得多。地址和密码可以修改。面部特征和指纹等生物信息是生命中独有的,不可改变。泄漏后果的严重性不容小觑。如果此类信息泄露,则无法修复,该技术的开发人员无能为力。无论是技术开发人员的主观滥用,黑客攻击还是无意的披露,都很难恢复。现在刷脸已广泛应用于金融支付,交通运输,公共安全等领域。面部生物信息的泄漏对整个社会系统来说是无法估量的。

人工智能量化学生课堂行为的问题在于,首先,这项技术对学生行为分析的准确性,可靠性和可信度表示怀疑。人工智能最终是一种算法。它现在能做的就是捕捉个人行动轨迹。它没有准确判断和认识人类丰富而复杂的社会行为及其发生。同样是一种行为,其含义可能会有很大差异。技术可以检测学生鞠躬,但最终写的是关于班级内容或无关信息,显然没有先进的人工智能无法判断。人工智能可以准确地识别学生是否参加,但以绝对定量的方式分析复杂而丰富的人类行为场景是不可靠的。其次,即使技术上可靠,那么管理学生课堂学习行为的这种道德合法性也是如此可疑。我们谈论基于人的教育,根据他们的能力教学生,人不是机器,学生不能完全数字化管理。技术无法奴役人民。

这两件事反映了人工智能技术的迅速发展和广泛应用。然而,我们的社会似乎加深了对这项技术的理解,它所带来的风险和挑战还没有为治理做好准备。

在理解方面,人工智能技术可以有效地解决许多领域的问题,但避免人工智能解决的所有问题。人工智能在解决机械,枯燥,大量数据和简单重复等问题方面是有效的,但缺乏人性化和人性化。因此,在需要体现人的精神,品味,想象和人性的工作中,必须由人来完成。我盲目追求技术解决方案。技术并非无所不能。

人工智能技术治理关键是抓住三个核心关键问题:算法、数据和算力。政府要在涉及算法和数据两方面来立法和监督。要确保算法公开透明、可监督。数据方面对相关技术产品使用数据的种类、规模方面强化监管。在涉及人面部特征信息、指纹、血液等人体生物特征信息要设立严格的标准,从采集、传输、存储等环节规制,确保涉及个人安全和国家安全信息不被滥用和安全可控。数据应用的用户规模要与企业的安全保障能力匹配。此外,在涉及重要领域和广泛人群的技术应用要建立人工智能使用的伦理与安全评估机制,类似于医学研究的伦理评估环节,确保技术发展的正确方向和合理使用。建立第三方专业组织监督人工智能技术应用的安全性、可靠性与可控性。

企业要落实主体责任。在技术开发环节,遵循人工智能开发的基本原则:公平、可靠与安全、隐私与保障、包容、透明和负责,确保技术的可靠性、合法性和符合人类伦理规范。企业要有底线意识,不触犯相关的法律法规,要遵循基本的社会价值规范和公共道德,承担相应的社会责任。在各个软件分发平台,要严格检验应用的权限,确保用户下载应用的安全可靠性。

用户方面,要提升公众的技术使用素养,培养正确认识、合理使用技术的能力。也要研究在人工智能技术应用场景中,考虑用户选择权,包括是否使用人工智能技术以及使用的程度。

人工智能作为革命性的新技术,没有人能准确预测技术的未来结果。在对互联网治理上我们过去奉行“先发展后治理”的理念,人工智能技术应用的行业领域广泛、算法不透明、结果隐蔽,其治理与要其发展同步,应秉持“边发展边治理”的理念。最终让人工智能技术更好服务人类社会发展。

《光明日报》( 2019年09月12日?16版)

[ 责编:董大正 ]

学习培训