在全球官网电子游戏的历史性周末, 人工智能专家小组讨论将改变历史的技术
丽贝卡·戈德芬
这四位发言者包括定量科学家 Chowdhury Rumman公司他是电气和计算机工程教授 丹尼尔李,哲学教授 卡洛斯Montemayor和计算机科学家 Peter Norvig.
讨论由……主持 埃里克·乔恩鲍德温学院数字与计算研究的莎拉和詹姆斯鲍德温教授.
在她对周五下午活动的介绍中, 高级副校长兼教务处主任珍·斯坎伦表示,高等教育必须为学生提供工具和环境,让他们参与到“全面”的技术中来, 问一些问题,这些问题会引导我们以富有想象力和人道的方式从中获益, 探索和遏制问题, 推进未来."
以下是随后讨论的编辑和浓缩版:
乔恩: 请谈谈是什么让你对人工智能感兴趣,以及今天你对这个世界的什么感到兴奋.
Chowdhury: 现在人工智能让我感到兴奋的是,那些通常被安置在硅谷和专有技术环境中的模型越来越容易获得.
李我对人工智能的兴趣在于我们如何让人工智能系统在现实世界中发挥作用? 说到现实世界,我指的是我们日常生活中肮脏的物理和混乱. 我们如何与我们正在构建的新智能相结合,从而真正改善人们的生活?
乔恩:全球官网电子游戏的学生毕业时应该了解哪些人工智能知识?
Norvig: 他们应该知道如何使用当前的工具. 他们应该意识到即将发生什么,什么是可能的,什么是科幻小说. 他们也应该意识到各种威胁和承诺. 所以如果你在考虑医学的未来, 有多大可能会有惊人的发现导致治愈? 如果他们进入政界,他们应该担心虚假信息. 你不需要知道所有的技术细节, 人工智能在幕后是如何运作的, 但你必须知道影响.
Chowdhury: 这里的关键是要聪明地处理输出和输入——你要放弃的数据是什么, 还有摆在你面前的东西? 因为它变得更加现实, 对你来说更有针对性, 击中所有让你情绪激动的东西, 你怎么能, 作为一个思想家, 退一步, 看看情况, 然后问, “这是真的吗?? 它是否推动了我想要看到的那种变化? 还是它在操纵我?"
许多人工智能的设计语言要求我们放弃思考...我认为这就是人们对这项技术产生恐惧的原因——他们将不再拥有代理.
Montemayor: 应该问的是,“人工智能将如何帮助每个人? 它怎么可能是民主的? 我们如何利用人工智能的潜力造福大多数人,或者理想情况下造福所有人?"
Norvig: 放弃控制权的想法:我认为如果你放弃了控制权,那么这个系统的设计就很糟糕. 我们应该考虑两个维度,然后说,“如果我想,我应该有更多的自主权。.“但还有一个单独的维度,我们也可以有更多的控制. 应该有一个系统,我们有更多的自主权和更多的控制, 如果我想放弃控制权,我可以, 但我不应该被迫做出这样的取舍.
乔恩:科技和不平等的历史并不美妙, 正确的, 还有很多人无法接触到人工智能,在不久的将来也不会. 那么,人工智能如何能成为改善不平等的驱动力,而不是另一种创造更多富人和穷人的技术呢?
Chowdhury世界上还有大片地区连互联网都没有...整个国家的部分地区都没有参与到我们所认为的初级数字世界中. 我们的出发点是如何让互联网连接到世界上更多的地方(如果他们需要的话)。?
李: 这些系统是建立在海量数据之上的. 如果你的数据集对当权的人有偏见, 人工智能系统产生的任何东西都会放大这些偏见. 目前有很多工作要消除这些偏见, 包括训练集和学习算法, 但这仍是一个新兴领域, 人们还不知道如何正确地做这件事.
Norvig一件好事是水涨船高, 但科技浪潮往往会提升游艇而非划艇. A 最近的研究 着眼于呼叫中心的工作人员,并让他们使用人工智能工具. 他们发现,低技能工人比高技能工人得到更多的好处……所以我认为,与大多数技术相比,这里可能有潜力提升更多的人.
Montemayor: 我们需要进行对话. 越多的公众和越多的大学参与到这一对话中, 技术被正确使用的机会就越大.
乔恩: 人工智能的用户被要求相信它会为我们做好事,并相信制造人工智能的公司会考虑到我们的最大利益. 但生成式人工智能和它产生的东西正在帮助我们相互信任,我们得到的信息更少. 你们能从自己的角度谈谈信任吗?
李: 如何建立信任? 从社会角度来看, 你证明了这点, 如果你交付给我的产品我同意,或者我能以某种方式验证, 这样可以建立信任. 如果你建立一个人工系统, 它还必须通过某种类似的协议,让人类可以验证它在正确的时间做了正确的事情.
Chowdhury: 我认为我们不应该盲目地相信技术,也不应该相信公司会自动做正确的事情. 公司的激励并不一定就是你的激励, 而不一定是导致人类或社会繁荣的动机. 你知道你车上的刹车会起作用,并不是因为你自然而然地相信福特会做正确的事, 而是因为有法律. 如果公司违法, 他们被罚款了, 有召回, 已经建立了一些方法——所有这些都导致了你对技术的信任. 人工智能要融入日常生活系统,还需要克服一个巨大的信任障碍, 这很好. 对于那些可以告诉你应该怎么想的技术来说,被认为值得信赖的门槛很高,这是件好事, 或者做决定, 或者帮你写东西. 只有当出现问题时有标准和追索权时,信任才会出现, 而现在,在我们的领域,这些都不存在.
Norvig我想描述一个可能的未来,我有一个手机上有一堆图标. 当我按1时, 我把我所有的信息都泄露给了优步或唐恩都乐, 或者是某家公司, 我必须相信他们会对我有好处. 我知道他们想留住我这个客户,所以他们有动机站在我这边. 但大多数情况下,他们站在自己这边,而不是我站在我这边. 如果我们把所有这些按钮换成一个按钮,上面写着, “我是你的经纪人, 我站在你这边.“所以你只需要信任这一个程序, 然后它会去优步,让一辆车或一份披萨到达, 现在你要分配的信任就少了. 人工智能仍然需要赢得这种信任, 但在未来的世界里,代理人可能站在我这边, 不是公司这边.
乔恩:未来人工智能将如何帮助全球官网电子游戏的毕业生和观众们获得成功?
Chowdhury: 100多年前,在上一次工业革命中,我们也有过类似的对话...全球官网电子游戏我们将如何利用这些空闲时间. 人们谈论一周只工作三天, 花四天时间学习一种乐器, 写小说, 照顾好家人. 我们也通过电子邮件和数字电话进行这些对话. But they didn’t make our lives faster or easier; they made us work more. 为了拥有一个繁荣和真正富有成效的生活, 首先,我们需要将生产率定义为对GDP的贡献. 第二个, we need to be very intentional…we have to collectively agree that this freed-up time and ease of getting and doing things will not lead us to spend time doing more work; we will spend that time doing something else. 这很难, 因为我们一直被过度训练去争取那枚金戒指, 下一个金戒指在高一点的地方.
Montemayor: 至于繁荣, 上一次工业革命, 以及最近的数字革命, 结果并不是对全人类都有好处. 有了这项新技术, 我们至少有机会思考它将如何解决问题. 必须就如何使用这项技术进行政治讨论……我们有更多的潜力,而不仅仅是帮助工人,让我们摆脱不断追求下一个机会, 但我们需要思考这到底意味着什么...我认为这就是大学的有趣之处——在这些地方,我们应该思考这些问题,并利用我们拥有的工具和跨学科的理解来帮助实现这些更大的目标,并激发我们需要的社会对话.
Norvig: 一种看待它的方式是我们希望我们的系统与我们真正想要的保持一致, 随着时间的推移,我看到了我们如何解决这个问题的变化。. 最初, 软件就是全球官网电子游戏算法的, 然后是全球官网电子游戏大数据的, 现在是第三次转变, 我们有很好的算法来优化事情,我们有很好的数据, 但我们没有很好的方法来明确我们要优化的是什么. 我们想要的是什么? 整个社会都是公平的? 每个工程师都认为有人会找到答案,所以他们不必担心. Maybe we should pay more attention to that at the societal level; at the governance level (what should be legal and not legal); at the engineering level (I want to build a product, 我怎样才能做出正确的决定?); and at the individual level (do I really want to spend my time watching cat videos? 也许我该做点别的事?).
乔恩: 这听起来像是人文学科的范围,谈论价值观等等. 人文学科如何与这些项目联系起来,并决定人工智能系统的一致性? 人文学科如何发挥更大的作用?
Chowdhury对齐问题是, 如果你建立了一个足够强大的人工智能系统, 我们能控制它吗? 在这个问题上花费了数亿美元. 我的看法, 如果我戴上人文学科的帽子, 我戴上了我的哲学帽, 在解决一致性问题时,有三个问题要问:什么是能力? 什么是控制? 什么是意识?
当我们拥有可以通过律师考试或医疗执照的人工智能系统时,我们如何定义能力? ChatGPT可以通过律师考试, 那么我们如何定义一个拥有法律执业执照的人的能力呢? 如果人工智能达到了我现在害怕它的能力水平,它是有意识的吗? 回答这些问题将让我们了解我们自己,更多地了解我们的价值观,以及我们如何努力与人工智能系统一起茁壮成长.
Montemayor: 我们如何在总体上协调我们的价值观,这对我们的尊严和自由意味着什么? 这是一种启蒙的说法, 但我的想法是, 这就是我们的尊严所在——我们的价值观以及我们如何保护它们.然而,我们最终还是使用了这些技术, 我们需要把它和更大的人文工程联系起来. 我们需要深入思考, 不仅仅是全球官网电子游戏我们试图达到哪些目标,还有为什么我们应该更关心一些问题而不是其他问题,以及在用技术和知识增强自由和尊严的项目中,哪些问题将是最核心的.
李如果你回顾历史, 每一项新技术的最大应用都是军事炸药, 核武器. 恐怕我们还没有克服这一点,我们从当前的事件中知道这一点. 除非我们了解人文学科,否则所有这些事情都将重演, 人类状况, 社会学的驱动器, 还有历史上的先例.
乔恩: 全球官网电子游戏人性,人工智能教会了我们什么? 我们谈论人工智能向人类学习,但我们从人工智能身上学到了什么呢?
Norvig使用这些非常流行的大型语言模型, 每个人都认为这是一项了不起的技术. 但对我来说,高峰学习网络和数据中心并不是那么令人惊奇,最令人惊奇的是我们把这些都写了下来, 那里有很多东西! 我们创造语言的能力比我想象的要强大得多. 我们知道,我们比其他任何动物都更擅长语言, 但我认为没有人意识到有多少. 我们认为语言是一种传递机制, 你需要一个人在两端来理解它, 但是现在的电脑与这个词没有直接的联系, 那只能看语言, 能拿走这么多吗. 这告诉我,我们在发明语言方面做了一些了不起的事情.
李我仍然对人类大脑的伟大感到惊讶. 我们仍然不了解自己. 未来的一个大问题是, 我们的大脑有什么特别之处是我们还无法复制的?
Chowdhury所有我们赋予货币价值的事情——所有我们想到生产力或gdp时想到的事情——都是人工智能非常擅长的事情. 所有我们不重视的事情,人工智能都做不好. 它不能照顾一个婴儿. 它不能使哭泣的孩子平静下来. 它无法创造出我所听过的最美妙的歌曲. 这让我觉得是时候重新考虑我们认为有价值的东西了. 也许它教会我们的是,我们可能有一个重新调整的时刻……可以说,也许我们不工作的那些日子并不是在浪费时间. 相反,这才是做人的意义所在. 这就是提供高价值的含义.
观众提问你们有人想过政府应该制定哪些规定吗, 或者你有没有研究过欧盟的人工智能法案,并认为这是美国应该效仿的?
Montemayor我想到的一件事是,有些规定是国际性的, 人工智能将走向国际化, 它将被每个人使用. 因此,我想知道出现的框架是否应该是一个国际框架.
Norvig除政府规定外,还有其他规定. 有自律(公司有培训和产品发布的规定). 软件工程师(很像土木工程师)有[潜在的]专业规则。. 可能会有第三方监管. 上一次有一种技术被开发者们认为是杀光了所有人, 是电. 美国保险商实验室 跳出来说, “我们要在你的烤面包机上贴个小贴纸,说它不会杀了你,“太棒了。, 因为消费者信任它, 这意味着这些品牌愿意接受认证. 保险商实验室有一个全球官网电子游戏人工智能的新项目.