AI 不是要取代我们,而是让我们做得更好。
这一次,台上的李飞飞不是 Google Cloud 的首席科学家,也不是斯坦福人工实验室(SAIL)的负责人,她又多了一个新的身份——斯坦福以人为本人工智能(HAI)研究院的联合主任(co-director)。
2018 年 10 月,重返斯坦福的李飞飞对外宣布了一则消息,斯坦福大学启动 HAI 项目,由李飞飞和斯坦福前教务长共同领导这个项目。虽然李飞飞一直积极地传递「以人为本」使用人工智能的观点,但是试图建立一所以人为本研究院要从更早说起。
2016 年夏天,李飞飞对那时还担任斯坦福大学的教务长 John Etchemendy 说道,「作为斯坦福大学的教务长,你领导了从技术到人文学科的进步,帮助人文主义者创新他们的方法论。」「但是是时候造一支回程箭了,我们需要将人文和社会思想融入到科技中。」
她接着解释最近的想法。建设未来的人似乎有着相似的背景,他们都钻研在数学、计算机科学和工程等领域。没有足够多的哲学家,历史学家和行为科学家能够影响新技术的发展。「我们需要探讨地更广泛、更深入,探讨与人类共同未来相关的东西。这种广泛的讨论和思维将带给我们一种更加以人为中心的技术,让每个人的生活都变得更好。」
在担任 Google Cloud 首席科学家期间,李飞飞目睹了科技行业在 AI 领域内的巨大投入,她更加坚定了想法,要在斯坦福建立一所以人为本的人工智能研究院。2017 年,当约翰辞去教务长一职,李飞飞邀请他共同从事自己最初设想的事业。
带着李飞飞最初的愿景,3 月 18 日,斯坦福以人为本 AI 研究院(Stanford HAI)成立了。这所研究院由斯坦福大学七所学院的 200 名教师组成,同时计划从人文、工程、医学、艺术或者基础科学等领域招募至少 20 名新教师,其中包括 10 名初级研究员,同时与 AI4All, AI100, AI Index 等组织展开合作。
斯坦福利用 HAI 评估智能机器对人类生活所造成的影响,包括机器自动化取代了部分人力工作,算法引起的性别和种族偏见,医疗、教育和司法系统中存在的 AI 问题。
研究院虽然才刚刚成立,但是已经向斯坦福七所学院,大约 55 个跨学科研究小组提供了支持。其中包括帮助难民重新安置,改善重症监护室医疗服务系统,以及研究自动驾驶汽车对社会治理和基础设施的影响。
人工智能的发展不都是利好的一面。在接受华尔街日报采访时,李飞飞被提问了这样一个问题。在未来 AI 也许会代替人类做许多决策,那么信任将从何而来?李飞飞坦然回答到,「我认为我们要走的路还有很长。建立信任需要多方的努力。」但是李飞飞也认为,机器不能取代人类做所有的决策。在很多 AI 的应用中,人类仍然是中间必不可少的一环。
从以人为本的初衷出发,发布会上李飞飞也强调了 HAI 需要遵守的三个原则:
- 发展 AI 的过程中必须考虑 AI 对人类社会的影响;
- AI 的应用是为了赋能人类,而非取代人类;
- AI 必须尽可能像人类智慧一样敏感、细腻、有深度。
关于 HAI 的目标,李飞飞说,希望「智能机器更加以人为本,怀有善意。帮助我们——人类,解决一些最有意义的难题。」
以下为李飞飞在斯坦福大学以人为本 AI 研究院开幕大会上的主题演讲全文,由极客公园翻译整理:
早上好,欢迎各位。我想感谢 Mark,他给我们分享了畅想斯坦福未来的一个如此美妙的视角。
我和 John Etchemendy,以及斯坦福大学的很多同事、学生和合作者,都为我们正在共同构建的事业感到兴奋。现在,在今天演讲的开头,我想先跟各位分享一段多年前我还是本科科研实习生的经历。
那是凌晨 3 点,我和一群同学蜷缩在黑暗的实验室里。在我们面前的,是一只被全身麻醉的猫——它的视觉皮层连接着一连串电极。我们将这些电极连接到一个扬声器,并在猫的眼前投射出移动的线条。通过扬声器,我们听到了它神经元响应的声音。每一个噼里啪啦的声响都是大脑运作的一瞥,它们一起奏响了哺乳动物视觉系统的交响曲。
直至今天,当时那个时刻仍在影响着我。
这是一项最早有由神经生理学家 David Hubel 和 Torsten Wiesel 进行的实验。他们所做的,是神经科学领域的突破和一个真正的转折点。这个实验为视觉智能奠定了基础,并给这两位科学家赢得了诺贝尔奖,并为今天通过 AI 来改变世界的神经网络架构提供了蓝图。他们在 1959 年就完成了这一切。
这项实验不仅仅是科学的源泉,它还是想象力的真正壮举。正是同样的好奇心,激发了从柏拉图,到笛卡尔,到图灵等思想家,向内心寻找心灵的奥秘,敢于追问心灵是如何运作的。别人只是看到魔法,但他们却窥见了科学的前沿,并进行探索。
今天,我们发现自己被这种想象力所包围。这是一个连接信息和技术发展的时代,可以被称为「第四次工业革命」。但这也是一个机遇和危险共存的世界。
在不到十年的时间里,AI 从一个学术领域的技术发展成了一个全球性的现象。不可否认的是,智能机器有可能会做坏事。它们容易受到算法偏差的影响,并且会引起人们对隐私、安全和工作被替换的担忧。这些都是 AI 的隐患。他们影响到了人类,要求紧急行动。
作为技术专家,我们有责任处理工具的缺陷,但也有责任充分发挥其潜力。2019 年世界非常复杂,我们对于事物理解的局限性也凸显出来。所以,我们要更智能的技术来帮助我们理解这个世界。
这就是 AI 带来的机会。
气候变化,尽管事态非常严重紧急,我们很难收集到大规模和精细的数据,来全面理解气候变化,并且启用社会层面的节能措施。智能技术可以帮助你。它可以在全球范围内整合数据,从卫星图像到电网传感器,甚至是不分时间和地点持续运作的自主无人机。所有这些,都可以帮助我们优化从数据中心到家庭的资源分配方式。
然后,就是医疗保健。对世界上的许多人口来说,医疗保健的使用依然是他们无法企及的奢侈品。但随着计算机视觉算法将临床观察慢慢变成低成本技术,我们就可以说,AI 已经在悄然改变诊断。信息本身、文档、记录甚至是扫描文件的纷杂都远远超出人类能处理的程度。在这些杂乱的数据里,还有多少有用的知识未被发现?通过使用图像识别和自然语言处理方法的文档理解技术,我们或许就能找到答案。
这些都是关于人工智能如何增强人类功能,以及如何在超出我们能力的情况下,为受伤需要帮助的人提供支持的故事。
但问题是,我们可以只受益,不受害?为了找到答案,我们必须在比历史上任何其他时间更大的范围内进行设想。而这种寻找将标志着 AI 新篇章的开始。AI 将以人为本,融合全球各种专业知识、理念和视角。
正是本着这一精神,我们宣布成立斯坦福以人为本人工智能研究所(Stanford institute of human centered AI, Stanford HAI)。它的使命是推动人工智能研究、教育、政策和实践,以改善人类状况。它的目标是成为一个全球对话中心,让每一个学科都能应对 AI 的挑战。这是对你们所有人的邀请,让我们通过承诺三个基本原则,一起畅想未来。
首先,为了让 AI 得到适当的发展,我们需要把它与正在进行的对其对人类社会影响的研究结合起来,并对它加以相应的指导。
其次,AI 的最终目的应该是增加和增强我们的人性,而不是削弱或取代它。为了充分发挥 AI 的潜力,更好地满足我们的需求,它必须不断进化,吸收更多人类智慧的多样性、细微差别和深度。
让我们从技术本身开始。近年来,AI 发展出了一些非凡的能力,但它仍远远落后于神经元、人类智能的微妙和灵活性。当一种算法在拥挤的街道上驾驶汽车或促成假释听证会的结果时,流畅的人类经验是至关重要的。
让我们用这张简单的照片来说明 AI 和人类智能的区别。当今最先进的计算机视觉算法可以很容易地识别它们眼前的对象,比如狗、沙发、人、咖啡杯等等。
但作为人类,我们看到了什么?我们不仅能知道沙发坏了,还知道是狗干的。我们还可以从一个简单的姿势看出,主人不是很开心。更神奇地,我们可能是从狗脸上的内疚表情中看出来的,而且马上就能看出来。这些就是人脑所做的。我们毫不费力地就能识别环境并唤起记忆。用类比的方法,用熟悉的术语来理解新观点。我们创造的联想可以触发一切,从假设到一首诗。我们能感觉到事件之间的因果关系,把一系列的瞬间变成一个故事,在其他人在场的时候,一个强大的情感维度也出现了。
发展至今的 AI 的确令人印象深刻,但人类智能的丰富性依然独一无二。当然,我们认识到,让 AI 对人类认知的整个范围更加敏感并非易事。解决方案将取决于来自神经科学、认知科学和心理学的见解,这也就是为什么斯坦福 HAI 研究院致力于促成来自这些领域的专家合作。
现在,你们可以和我一起想象,这种具有深度和多功能性的技术能做到什么?
例如,AI 正在改变医学诊断,因为算法可以更快、更精确、更一致地检测疾病。但这仅仅只是个开始。想象一下,你站在医生的角度,在拥挤的急救室里,周边都是需要帮助的人,但你的首要职责是先处理最紧急的情况。如果病人数量少,那情况还是可控的,但随着人数越来越多,你的时间和精力会被分散,问题将变得更加复杂。每个病人都以他们自己的方式和你交流,面对你可能只在一瞥中看到的环境,这些需求随时都可能改变。
下一代的由 AI 驱动的医疗系统能做到什么?想象一下,它可以识别病人肢体或他们含糊不清的语音,并通过交叉参照来加快初步诊断的速度。
我们可以想象,它们能根据病人的面部表情和姿势对其情绪状态做出有根据的猜测。它可以在每个病人等待的时候,为他们戴上一只人造眼和一只人造耳,观察他们的医疗和情绪状态的变化,并让临床医生当天保持清醒。想象一下,这一切都是实时进行的,为急诊室内的每个人而工作。
这种医疗系统的效果将是革命性的。临床医生得以继续与患者面对面,但压力更小,注意力更集中。在急诊室里,节省时间往往就是拯救生命。
那么,一个类似的应用在教育场景下的 AI 驱动的教学系统,我们也就不难想象得出来了。这个系统可以监测班级安全审查作业,来衡量学生的理解,标记他们可能的优点和缺点,甚至协助教师对学生评分。同时,教师也能少分心,更加聚焦在每个学生身上。作为斯坦福大学的最大深度学习课程的讲师,我在想象无限量的免费 AI 助教,这太让人兴奋了。
甚至,像搜救这样的任务也可以变得更安全、更有效。将 AI 驱动的系统部署在灾区,它或许可能构建一个实时的环境 3D 地图,并生成安全的最佳路径,以帮助救援队更快找到需要救助的人。这种算法甚至可以与消防部门、血库、医院、地方政府和媒体共享信息。尽快有第一个反应者出现,公众保持清醒。
名单还能继续列下去,但故事却是一样的。以人为本的 AI 不断进化它基本的判断和感知技能,在比较简单的工作上,更好地服务人类。总而言之,人类的能力可以专注于更高层次的任务,更安全,更少重复,更有创造力,最终更有意义。
AI 不是要取代我们,而是让我们做得更好。这又把我们带回了人工智能陷阱的话题。现在,对我们所有人来说,重要的是要记住这是历史上独一无二的时刻,我们是第一代看到这种技术以如此规模和速度从实验室转移到现实世界的人。这是头一次,人工智能的伦理不再是一个抽象概念或哲学实践。这项技术影响着现实生活中的人们。因此,我们有责任充分了解这项技术的影响,预测世界将如何作出反应,并据此作出指导。
换句话说,是时候让伦理成为人工智能研发的基本元素了。
让我们从算法偏差和失业开始。这些都是重大问题,解决办法将采取多种形式。例如,有些偏差是技术性的,可以通过统计方法自动消除偏差数据集,但人的因素也很重要。当谈到失业问题时,尽管技术可以在提高技能方面发挥重要作用,但受到劳动力影响的同时,政策也将在为他们提供选择和支持方面发挥至关重要的作用。
但复杂性还不止于此。例如,随着人工智能在人类任务中发挥越来越多的协作作用,我们的法律将如何改变?随着人类专家越来越依赖于机器智能,我们的责任观念将会变成什么样?出了问题谁来负责?工程师们是时候面对这些问题了,政策制定者、法律学者和伦理学家也应该帮助寻找答案。
从历史上看,新技术的影响往往远远超出它们所提供的功能。例如,汽车的发明只是为了帮助我们更快地出行,但一个世纪后,整个世界已被高速公路、停车场和加油站重塑,更不用说对全球自然资源和气候的影响了。
智能机器的普及将会给我们的社区带来什么?它们将如何影响我们的文化? 我们已经生活在一个每天对技术陷阱提心吊胆的世界里。因为智能技术惊人的能留,它也伴随着非常高的风险。
这些都是重大而棘手的问题,值得认真对待。它们要求我们投入时间、资源和广泛的专业知识来理解这项技术,预测它将带来的未来,并负责任地引导其进程。最重要的是,这是一个人性的呼吁。
这就是定义以人为本人工智能的三条原则,由此我们能确保它的设计是人性化的,它在社会中的角色是人性化的,它的影响是人性化的。
现在我想聊聊斯坦福 HAI 研究院作为一家组织的目标。
当然,我们的目标是在与医学、法律、经济学和各式各样学科的精英们一起,促进突破性的研究,提升现有的技术水平。
接下来,为了鼓励一个包容的、持续的对话,HAI 研究院正在努力建设一个全球性的思想领袖论坛,将政策制定者、学者、商业领袖、记者和社会公民聚集在一起,其中的很多人今天就坐在台下。我们期待坦诚地对话,直面未来最棘手的问题,并让全球的关注者了解情况。
HAI 还将致力于为学生深挖和拓宽 AI 教育的边界,并通过外展计划对斯坦福校园意外的行业、政府和媒体的领导者们进行培训。
最后,仅仅谈论人工智能是不够的。我们有义务促进现实世界中有意义的改变,这意味着将研究和技术想那些能够从中受益的人们分享,同时向社会提供能够塑造政策的研究、数据和专业知识。
这一切会在斯坦福发生,绝非偶然。
在这里,想象力的传统依然充满活力,并且在 AI 研究的最早期就一直存在。在很多方面,人工智能的第一章都要从 1963 年成立的斯坦福人工智能实验室(SAIL)说起。
在过去的十年里,SAIL 已经成为了 100 多名 AI 研究人员、学生和访客的家园,其中也包括我自己和我的学生。从自动驾驶到可见的计算机,从帮助对抗癌症的算法到深入海底的机器人,SAIL 一直是人工智能历史的奠基之所。
现在,我们正在为人工智能的下一章树立榜样,它将转变为一个远远超出计算机规模边界的多学科领域。这可能是人工智能历史上最大的转变,而斯坦福大学正是转变发生最理想的地方。
我们的工程,法律,医学,教育,商业,人文科学,自然科学和地球科学都将在帮助人工智能成为一个多元化的以人为本的追求中发挥着重要的作用。但学术界的角色甚至比这更重要,这是真正能让想象力自由的地方。
明天的人工智能领袖们需要探索各种探究的途径,他们不会局限在那些能够获取商业果实的领域。他们需要像大型强子对撞机一样的全球合作和努力来促进科学的自由,不是为了让我们的手机更好用,Wi-Fi 更便宜,而是为了赶上上帝粒子衰变前的第一眼。
「人工智能」这个词很容易让人联想到自动化和闪烁的服务器图像。但对我而言,人工智能是关于人性的,它事关我们希望自己的技术体现出的人类价值观,研发它的人以及它所影响的社区。
这就是斯坦福 HAI 研究院真正让我感到充满希望的原因,它拥有一群以人为本研究 AI 的人。
其中很多人已经是我在斯坦福大学的朋友、同事和学生了。例如,我在人工智能实验室和斯坦福伍兹研究所 (Stanford Woods Institute) 的同事正努力更好地理解全球贫困问题。一个研究收入与卫星照片相关性的模型,为非政府组织(NGO)和政府绘制详细的财富不平等地图。再比如,我在斯坦福大学计算机科学系和教育学院的同事们帮忙开发了一个辅导代理系统,为服务不足社区的学生提供一对一的教育。还有,我在斯坦福大学医学院的朋友们,他们通过训练脑电图数据的深度神经网络来为中风患者开发正常的康复疗法。
这就是所谓的以人为本人工智能。更令人兴奋的是,未来还会有更多的应用。上周,一批刚刚被授予计算机科学博士学位的年轻人来参观。这不仅是斯坦福每年的传统,也是每年一次不可思议之旅。这些年轻人来自世界不同的角落,他们充满活力,勤学好问,富有创造力。他们的天赋和热情让我们愿意去传授和指导。但是今年有一些不一样。从他们一达到斯坦福,我发现我身边围着一群学生,他们想要了解更多关于以人为本人工智能。吸引他们的不仅仅是技术,他们想利用技术做好事。一位学生计划将自然语言处理应用于社会学,另一位学生对机器人医学和政策问题所带来的交叉感兴趣。
一个接着一个,他们的想法挑战着我的思维,也激发着我的思维。他们热情,有同理心,极具创造力。所以下一次,当你思考 AI,以及 AI 对未来意味着什么,多想想这样的人。他们在提醒我们,AI 可以做更多,远远超过金钱、奢侈品、便利。AI 可以为每个人创造一个更加美好的世界的愿景。
这就是创办斯坦福 HAI 研究院的根基。以工程师的身份,以科学家的身份,以各行各业专家的身份,最重要的,以人的身份,帮助聪明的头脑,一起想象 AI 的未来。
谢谢大家。
图片来源:斯坦福大学以人为本 AI 研究院开幕大会直播截图、视觉中国
责任编辑:宋德胜