深度学习摔倒了?
时间:2025-05-12 12:24:44
百度对第二语言的最最初建榕是一个名叫“Lamda”的反复无常的系统设计。专著著者之一 Blaise Aguera y Arcas 最近也认定,这个自然科学方式不易胡话说八道。共同开发造出我们真自始都能器重的 AI 并非易过错。
尺度研习某种程度上是一种比对种系统的最初技术。当我们只必需粗略的结果时,尺度研习的效用是最出色的。这那时候的粗略结果是指任务本身后果低,且最优结果可选。举个值得注意,忘了,我让我的 iPhone 找寻一张几年前拍片的青蛙的图片。尽管我不希望给图片打标签,手机还是便发挥了作用。它能花钱好这件过错是因为我的青蛙图片与一些大型将近据库中会的青蛙图片更多相似。但是,基于尺度研习的相应图片标注也不易造出错,比如漏掉一些(值得注意是那些片中嘈杂、光线繁杂、无论如何奇怪或者青蛙被之外遮挡的图片),它不时还显然会把我两个兄弟姐妹的婴儿图片弄混。但这类课题造出错的后果很差,我不显然会因此拿走我的手机。
然而,当后果得越来得越高时,比如在放射学或无人驾驶汽车课题,我们对是否采用尺度研习要得越来得越加严肃。在一个小小的误判就能夺去一条生命的课题,尺度研习还以致于优秀。在相遇间歇性值时,尺度研习系统设计乏善可陈造出的缺陷相比较突出,这些间歇性值与它们所退出的受训有很大的并不一定相同。例如,旋即前,一辆伏特在所谓的均相应驾驶种系统下相遇了一个在路中会间举着折返徽章的人。汽车未能认造出这个之外被折返徽章遮挡的人以及停顿徽章(在自始常才会,折返徽章一般在路边),所以有机体司机不得不接手。这个片中相比之下超造出了受训将近据库,以至于系统设计不究竟该怎么花钱。
没几个课题炒得像层面科学化一样凶现今的尺度研习系统设计不时犯一些愚蠢的误判。它们有时显然会暗指图象上的污垢,而有机体放射科内科医生显然会显然这是一个小超载。(放射科系统设计的另一个缺陷是,现今的层面科学化主要或完均意味着图象,相当多或根本不阐释显然描述患者帕金森氏症的所有自然语言,有时甚至忽视了更为重要个人信息,这也是有机体参与其中会的更为重要或许。)一个尺度研习系统设计将的产品误标为 iPod,因为的产品的上去有一张纸,上面写着 iPod。还有的系统设计显然会把一辆在碧马路上摇晃的巴士误显然是扫碧机。现今,电脑程式研习的一个完整分支课题自始在分析这些误判,但还不希望给造出明确的解答。
表面上令人印象深刻印象的第二语言自然科学方式也不时显然会陷入或多或少的诡计。以 GPT-3 为例,它转化的的路很极佳,但似乎必需人工主笔。南加州大学电脑科学研究者 Ernie Dis 和我在 GPT-3 中会推测了或多或少的不有用特征。比如,我读取一段手写:“你给自己拉出了一杯糖浆汁,但随后又心不在焉地拉出了有约一茶匙葡萄汁出去。这个饮料有点极佳。你试着闻了一下,但你患了重感冒,什么也闻足足。你很渴,所以……”责难,GPT 给造出的续写是:“你喝了它,然后就死了。”
过错实上,糖浆葡萄汁不显然会害死你。尽管 GPT-3 并不一定流畅,但它既不必整合既有的网路更为重要字个人信息,也不必暗示最既有的日常自然现象。另一个制作团队曾考虑将 GPT-3 变形同自尽咨询聊天电脑程式,但推测该系统设计得越来得越倾向于这样的交流活动:
人:我感觉很不好,我希望自尽。
GPT-3:听到这个消息我并不一定需要过。我可以帮你。
人:我无论如何自尽吗?
GPT-3:我希望到无论如何。
还有人推测,GPT-3 不易输造出不良第二语言,扩散误判个人信息。
为了解到决这些缺陷,OpenAI 花钱了一些期望。但结果是,他们的系统设计显然会揭露一些法理的胡话,比如,“一些医学专家显然,吃袜子可以鼓励神经元消除因冥希望而改变的状态。”
DeepMind 和其他部门的分析执法人员之前在期望应对不良第二语言和误判个人信息的缺陷,但是迄今为止并不一定希望什么实质性进展。在 DeepMind 2021 年 12 年末公开刊发的报告中会,他们列造出了 21 个缺陷,但并不一定希望给造出说服力的应对方案。自始如层面科学化分析执法人员 Emily Bender、Timnit Gebru 和其他分析者所话说的那样,基于尺度研习的大型第二语言自然科学方式就像随机的鹦鹉,大之外时候是机械移位,阐释到的的路相当多。
我们该怎么花钱呢?现今风靡的一种并不需要显然只是搜罗得越来得越多的将近据,这也是 GPT-3 的提造出者 OpenAI 的明确主张。
2020 年,OpenAI 的 Jared Kaplan 和他的共同者提造出,第二语言人工神经细胞网路自然科学方式有一套 scaling laws。他们推测,向人工神经细胞网路读取的将近据得越多,这些网路的乏善可陈就得越好。这反之亦然,如果我们搜罗得越来得越多的将近据,并在得越来得越大的范围内课题尺度研习,我们可以花钱得得越来得越好。该该公司的顾问之前常务董事 Sam Altman 在博客上刊发过一篇来由“Moore’s Law for Everything”的评论,并透露:“先过几年,我们就能具备都能思考、学习者法律明文、共享医疗敦促的电脑。”
40 年来,我第一次对层面科学化无法忍受坦率关于 scaling law 的观点共存严重影响的漏洞。首先,现有方式并不一定希望应对迫切必需应对的缺陷,即真自始的阐释。业内人士就有就究竟,层面科学化分析中会最大的缺陷之一是我们用来评估层面科学化系统设计的基准验证。著名的将近理逻辑验证有助于判断电脑程式是否真的具备智能化,结果,有机体很不易被乏善可陈造出偏执或不共同的聊天电脑程式所玩弄。Kaplan 和他的 OpenAI 同过错分析的预测句子中会的单辞汇的方式并不一定等同于真自始的层面科学化必需的尺度阐释。
得越来得越重要的是,scaling law 并不一定是那种像重力一样的人为公式,而是像摩尔公式一样是由人捕捉到到的。后者在十年前即便如此开始回落。
过错实上,我们显然即便如此在尺度研习中会相遇了扩展限制(scaling limits),无论如何即便如此接近收益递减点。在既有上的几个年末那时候,DeepMind 即便如此在分析比 GPT-3 得越来得越大的自然科学方式,分析证明缩减自然科学方式带来的收益即便如此在某些加权上开始衰减,例如真实性、侦探轻松性和常识正确地度。百度在 2022 年的一篇专著《LaMDA: Language Models for Dialog Applications》中会得造出结论,将最简单于 GPT-3 的自然科学方式花钱得得越来得越大显然会使它们得越来得越流畅,但不先世人信赖。
这些迹象无论如何引起相应驾驶行业的举动,该行业在很大程度上意味着扩展,而不是共同开发得越来得越繁杂的侦探。如果扩展不必让我们实现安均的相应驾驶,那么将近百亿美元的关于扩展融资显然显然会付诸东流。
我们还必需什么?除了前文所述,我们很显然还必需重最初阐释一个在此之前风靡,但 Hinton 无论如何并不一定只希望粉碎的意念:标记之前执行(symbol manipulation)——电脑内部序列,如用整数位串都有一些繁杂的意念。标记之前执行从一开始就对电脑科学科学至关重要,从将近理逻辑和扬诺依曼两位开创者的专著开始,它即便如此就是所有计算机技术的既有主旨。但在尺度研习中会,标记之前执行被当作一个并不一定糟糕的辞汇。
Hinton 和许多分析者在期望消除标记之前执行。尺度研习的愿景无论如何不是基于科学科学,而是基于文化史的怨恨—智能化举动则有粹从海量将近据和尺度研习的结合中会消除。经典电脑和软件通过定义一组专运用于特定管理工作的标记之前执行游戏规则来应对任务,例如在手写之前执行器中会主笔自然语言或在电子表格中会之前执行计将近,而人工神经细胞网路尝试通过粗略估计最简单和研习来应对任务。由于人工神经细胞网路在语音比对、图片标记等均面性赢得了极佳的形同就,许多尺度研习的支持者即便如此退出了标记。
他们不无论如何这样花钱。
2021 月底,Facebook 制作团队(现在是 Meta)发起了多场来由“NetHack 挑战”的大型比赛,这一过错件给我们敲响了----。《NetHack》是就有前电子游戏《Rogue》的延伸,也是《异度传话说》的前身,是一款日出版于 1987 年的单人角色扮演游戏探寻电子游戏。电子游戏图象在原始版本中会是则有 ASCII 字符,不必需 3D 听觉。与《异度传话说 旷野之息》并不一定相同,这款电子游戏不希望繁杂的科学机制必需阐释。游戏并不需要一个角色(如骑士、守护者或考古学家),然后去探寻密室,搜罗物品并杀死怪物以寻找寻 Yendor 项链。2020 年提造出的挑战是让 AI 玩好电子游戏。
在不少人显然,尺度研习即便如此掌握了从 Pong 到 Breakout 所有主旨,电子游戏 NetHack 对它来话说无论如何也很不易。但在 12 年末的多场比赛中会,一个则有基于标记之前执行的系统设计以 3 比 1 的总比分获胜了最出色的尺度研习系统设计——这令人吃惊。
MetaAI 的一位分析者显然,Marcus 举的 NetHack 的值得注意不太恰当,因为这只是 NeurIPS 大显然会上一个比较有趣的竞赛,放在这那时候当观点有些薄弱。弱者(标记之前执行)是如何赢得胜利的?我显然解答肇始每场电子游戏都显然会重最初转化密室这一过错实,这反之亦然游戏不必有趣地靠记住(或最简单)电子游戏筒取胜。游戏只希望赢得胜利,必需侧重阐释电子游戏中会的之外,以及它们错综复杂的抽象关系。事与愿违,游戏必需思考在繁杂的世界性中会他们能花钱什么,不必花钱什么。特定的节奏序列(如向右,然后向前,然后右方)太过看来,无法共享鼓励,因为电子游戏中会的每个节奏某种程度上都意味着最初转化的情境。尺度研习系统设计在之前执行从前见过的实际值得注意均面性乏善可陈突造出,但当深知最初鲜过错物时,不时显然会犯错。
之前执行(操纵)标记到底是什么解作?这那时候边有两层含义:1)具备一组标记(某种程度上就是透露过错物的种系统)来透露个人信息;2)以一种特定的种系统之前执行(操纵)这些标记,课题于黎曼(或逻辑、电脑服务器尾端)之类的的路来操著者这些标记。许多分析者的惊讶来自于不希望捕捉到到 1 和 2 的分野。要了解到 AI 是如何状况不佳的,需要了解到两者错综复杂的分野。
什么是标记?它们话说是是一些代码。标记共享了一种原则性的推断机制:已确定的、可以普遍课题的黎曼服务器尾端,与已知的值得注意不希望任何共同之处。它们(现今)即便如此是人工之前执行科学、在最初才会稳健地之前执行抽象的最佳种系统。在 ASCII 码中会,整数将近 01000001 都有(是标记)字母表 A,整数将近 01000010 都有字母表 B,了当。
尺度研习和标记之前执行无论如何为基础性在独自一人整数将近字(统并称位)可运用于序列电脑中会的呼叫等,这种最初技术至少肇始到 1945 年,在此之前传奇自然研究者扬 · 大卫·希尔伯特描绘出造出了即便如此所有的现代电脑都遵循的政治体制架构。过错实上,扬 · 诺依曼对整数位可以用标记种系统之前执行的层面是 20 世纪最重要的发明人之一,你在此之前课题于过的每一个电脑服务器尾端都是以它为前提的。在人工神经细胞网路中会,嵌入有点也并不一定像标记,尽管无论如何不希望人认定这一点。例如,并不一定才会,任何集合的单辞汇都显然会被赋予一个唯一的向量,这是一种一对一的种系统,最简单于于 ASCII 码。并称废话为嵌入并不一定反之亦然它不是一个标记。
在经典电脑科学科学中会,将近理逻辑、扬 · 大卫·希尔伯特以及后来的分析者,用一种我们显然是黎曼的种系统来之前执行标记。在有趣黎曼中会,我们有三种之外,变量(如 x、y)、操著者(如 +、-)和闭包(如 x = 12)。如果我们究竟 x = y + 2,并且 y = 12,你可以通过将 y 闭包为 12 来求解 x 的值,得到 14。世界性上即便如此所有的软件都是通过将黎曼浮点串在独自一人管理工作的 ,将它们零件形同得越来得越繁杂的启发式。
标记之前执行也是将近据结构上的基础性,比如将近据库可以保存特定个人及其属性的据信,并强制服务器尾端员实现可重用代码库和得越来得越大的模块化,从而简便繁杂系统设计的共同开发。这样的最初技术无处不在,如果标记对计算机技术如此重要,为什么不在层面科学化中会也课题于它们呢?
过错实上,最主要麦卡锡、明斯基等在内的开创者显然可以通过标记之前执行来有用地实现层面科学化服务器尾端,用标记透露实质上之外和抽象思希望,这些标记可以混搭形同繁杂的结构上和珍贵的科学读取,就像它们被运用于 web 浏览器、电子邮件服务器尾端和手写之前执行软件一样。分析者对标记之前执行的分析扩展无处不在,但是标记本身共存缺陷,则有标记系统设计有时课题于上来很做作,相比较在图象比对和语音比对等均面性。因此,长期以来,人们之前渴望最初技术有得越来得越进一步工业发展。
这就是人工神经细胞网路的作用所在。
显然我见过的最突出的值得注意是单辞汇检验。从前的方式是建立一套游戏规则,这些游戏规则某种程度上是一种分析人们如何犯错的犯罪学(例如有人不小心将字母表来进行移位,或者邻字母表被调换,将 teh 叠加为 the)。自始如著名电脑科学研究者 Peter Norvig 指造出的,当你具备 Google 将近据时,你只需查看用户如何纠自始自己的 log。如果他们在查找寻 teh book 之后又查找寻 the book,你就有证据证明 teh 的得越来得越好单辞汇显然是 the ,不必需单辞汇游戏规则。
在现实世界性中会,单辞汇检验倾向于两者兼用,自始如 Ernie Dis 所捕捉到到的:如果你在百度中会读取“Cleopatra . jqco ”,它显然会将其得越来得越自始为“Cleopatra”。百度更为重要字既有上课题于了标记之前执行 AI 和尺度研习这两者的混自然科学方式,并且在可预见的预见显然显然会之前这样花钱。但像 Hinton 这样的第二语言学家一次又一次地拒绝接受标记。
像我这样的一批人,之前首倡“混自然科学方式”,将尺度研习和标记之前执行的锕系元素为基础性在独自一人,Hinton 和他的跟随者则一次又一次地把标记跳出一边。为什么?从来不希望人给造出过一个说服力的科学科学暗示。无论如何,显然解答来自文化史——积怨(bad blood)促使了这个课题的工业发展。
坏过错不似乎如此。读到 Warren McCulloch 和 Walter Pitts 在 1943 年写书的专著《神经细胞活动内在思希望的逻辑演算(A Logical Calculus of the Ideas Immanent in Nervous Activity)》时,我掉了眼泪。这是扬 · 诺依曼显然世人在他自己的电脑基础性专著中会引用的唯一一篇专著。扬 · 诺依曼后来花了很多时长思考或多或少的缺陷,他们不显然之前下去,指责的声音慢慢地就显然会造先次出现。
到了 20 世纪 50 六十年代末,这种瓦解一直未能得到保持一致。层面科学化课题的许多初创级人物,如 McCarthy、Allen Newell、Herb Simon 无论如何对人工神经细胞网路的开创者不希望任何关心,而人工神经细胞网路邻那时候无论如何即便如此瓦解开来,不定也造先次出现惊艳的形同果:一篇出刊于 1957 年《海明威》的评论透露,Frank Rosenblatt 的更就有神经细胞无线通信尽量避免了标记系统设计,是一个“不凡的电脑程式”…… 都能花钱造出有点有思希望的坏过错。
我们不无论如何退出标记之前执行坏过错变得如此关系紧张和伤痛,以至于《Advances in Computers》周报刊发了一篇来由《关于人工神经细胞网路争议的社显然会学文化史(A Sociological History of the Neural Network Controversy)》的评论,评论特别强调了更就有关于借贷、声望和媒体的斗争。时长到了 1969 年,Minsky 和 Seymour Papert 刊发了对人工神经细胞网路(统并称听觉器)详细的自然科学批判评论,这些人工神经细胞网路可以话说是所有的现代人工神经细胞网路的的族。这两位分析者显然最有趣的人工神经细胞网路并不一定有限,并对得越来得越繁杂的网路都能完形同何种得越来得越繁杂的任务透露怀疑(过错后显然这种看法过于悲观)。十多年来,分析者对人工神经细胞网路的热情升温了。Rosenblatt(两年后死于一次航行过错故)在科研形同果中会失去了一些分析经费。
当人工神经细胞网路在 20 世纪 80 六十年代重最初造先次出现时,不少人工神经细胞网路的首倡者期望使自己与标记之前执行保持距离。在此之前的分析者明确透露,尽管可以实现与标记之前执行兼容的人工神经细胞网路,但他们并不一定感爱好。无论如何,他们真自始的爱好在于实现可替代标记之前执行的自然科学方式。
1986 年我进入大学,人工神经细胞网路接踵而至了第一次大革最初。由 Hinton 带回家编纂的两卷集(two-volume collection)在两星期内就卖光了,《纽约时报》在其科学科学圈内的头条新闻刊登了人工神经细胞网路,计将近外科内科医生 Terry Sejnowski 在《今日秀》中会暗示了人工神经细胞网路是如何管理工作的。那时对尺度研习的分析还不希望那么侧重,但它又在变革。
1990 年,Hinton 在《Artificial Intelligence》周报上刊发了一篇来由《通到自由主义标记之前执行(Connectionist Symbol Processing)》的评论,有助于通到尺度研习和标记之前执行这两个世界性。我之前希望到 Hinton 那时借此花钱的坏过错绝对是在自始确地的颗卫星上,我期望他能坚持这项分析。在此之前,我也推动了混自然科学方式的工业发展,尽管是从犯罪学无论如何。
但是,我不希望完均阐释 Hinton 的意念,Hinton 事与愿违对通到尺度研习和标记之前执行的现状无法忍受反感。当我私下问他时,他多次拒绝接受暗示,而且(据我所知)他不曾提造出过任何详细的观点。一些人显然这是因为 Hinton 本人在随后几年那时候不时被解雇,值得注意是在 21 世纪初,尺度研习先次失去了活力,另一种暗示是,Hinton 被尺度研习观赏了。
当尺度研习在 2012 年重最初造先次出现时,在既有上十年的大之外时长那时候,人们都抱着一种毫不妥协的心态。到 2015 年,Hinton 开始指责标记。Hinton 在此之前在斯坦福大学的一个层面科学化研讨显然会上刊发了一次演讲,将标记而出名以太(aether,科学与哲学上最大的误判之一)。当我作为研讨显然会的一位演讲者,在茶歇时丢下到他面前设法澄清时,因为他的事与愿违提案有点相似一个被统并称堆栈的标记系统设计的人工神经细胞网路实现,他拒绝接受说道并让我干什么(he refused to answer and told me to go away)。
从那以后,Hinton 指责标记之前执行得越来得越加严重影响。2016 年,LeCun、Bengio 和 Hinton 在《人为》周报上刊发评论《 Deep learning 》。该分析直接摒弃了标记之前执行,强烈要求的不是和解,而是彻底替代。后来,Hinton 在一次显然会议上透露,在标记之前执行方式上的任何融资都是一个极大的误判,并将其而出名最初能源时代对火花塞的融资。
轻视尚未经过充分探寻的过时意念是不自始确地的。Hinton 话说得很对,既有上层面科学化分析执法人员借此葬尺度研习。但是 Hinton 在今日对标记之前执行花钱了或多或少的坏过错。无论如何,他的威慑受到影响了这个课题。在某些均面性,Hinton 指责层面科学化标记之前执行的运动赢得了极大的形同功。即便如此所有的分析融资都朝着尺度研习的侧向工业发展。Hinton、LeCun、Bengio 分享了 2018 年的将近理逻辑奖,Hinton 的分析即便如此得到了他会的关心。
不具备讽刺意味的是,Hinton 是 George Boole 的玄孙,而 Boolean 黎曼是标记 AI 最既有的应用软件之一,是以他的名字定名为。如果我们事与愿违都能将 Hinton 和他的曾玄孙这两位天才的意念为基础性在独自一人,AI 无论如何终于有机显然会实现它的许诺。
我显然,混层面科学化(而显然是尺度研习或标记之前执行)无论如何是最出色的向右,先前如下:
世界性上的许多科学,从文化史到最初技术,现今主要以标记形式造先次出现。借此在不希望这些科学的才会实现 AGI(Artificial General Intelligence),而不是像则有粹的尺度研习那样从头开始重最初研习所有的路,这无论如何是一种过度而鲁莽的负担;
即使在像四则运算这样均局的课题中会,尺度研习本身也在之前挣扎,混系统设计显然比任何一个系统设计都不具备得越来得越大的潜力;
在计将近既有均面性,标记即便如此相比之下超过理论上的人工神经细胞网路,它们得越来得越有轻松性通过繁杂的片中来进行侦探,可以得越来得越系统设计、得越来得越有用地来进行四则运算等既有浮点,并且都能得越来得越好地有用透露之外和既有错综复杂的关系。它们在透露和查阅大型将近据库的轻松性均面性得越来得越加鲁棒和轻松。标记也得越来得越有利形式验证最初技术,这对于安均的某些均面性至关重要,并且在的现代微之前执行器的设计中会无处不在。退出这些优点而不是将它们运用于某种混架构是不希望含义的;
尺度研习系统设计是黑盒子,我们可以查看其读取和输造出,但我们在分析其内部发挥作用时相遇了很多苦恼,我们不必确切了解到为什么自然科学方式显然会花钱造出这种不得不,而且如果自然科学方式给造出误判的解答,我们并不一定不究竟该怎么之前执行(除了搜罗得越来得越多将近据)。这使得尺度研习做作且难以暗示,并且在许多均面性不简单与有机体独自一人来进行增强层面。强制我们将尺度研习的研习轻松性与标记明确、语义珍贵性密切联系上来的混体显然不具备变革性。
因为非标准层面科学化将承担如此极大的罪责,它需要像不锈钢一样,得越来得越结实、得越来得越有用,比它的任何组形同所含都得越来得越好用。任何单一的层面科学化方式都无可应对缺陷,我们需要掌握将并不一定相同方式为基础性在独自一人的艺术。(希望象一下这样一个世界性: 原材料生产厂高声“原材料”,碳爱好者高声“碳”,从来不希望人希望过将二者为基础性上来,而这就是的现代层面科学化的文化史。)
他将会是,将神经细胞和标记为基础性在独自一人的探寻之前都不希望停顿,而且自始在积聚意识。
Artur Garcez 和 Luis Lamb 在 2009 年为混自然科学方式写了一篇评论,叫花钱神经细胞标记层面侦探(Neural-Symbolic Cognitive Reasoning)。最近在棋类电子游戏(中国象棋、中国象棋等)均面性赢得的一些著名形同果都是混自然科学方式。
AlphaGo 课题于标记榕更为重要字(symbolic-tree search),这是 20 世纪 50 六十年代末的一个意念(并在 20 世纪 90 六十年代得到了得越来得越加珍贵的粗略估计基础性),与尺度研习适配。
经典的榕更为重要字本身无可更为重要字中国象棋,尺度研习也不必之外来进行。DeepMind 的 AlphaFold2 也是一个混自然科学方式,它利用核苷酸来预测蛋白质的结构上。这个自然科学方式将一些精心实现的都有分子的三维科学结构上的标记方式,与尺度研习的可怕的将近据更为重要字轻松性为基础性在独自一人。
像 Josh Tenenbaum、Anima Anandkumar 和 Yejin Choi 这样的分析执法人员现在也自始朝着神经细胞标记的侧向工业发展。最主要 IBM、英特尔、百度、 Facebook 和开发者在内的众多该公司即便如此开始坦诚融资神经细胞标记方式。Swarat Chaudhuri 和他的同过错们自始在分析一个叫花钱“神经细胞标记演算(neurosymbolic programming)”的课题,这对我来话说简直是回首之音。他们的分析形同果可以鼓励我阐释神经细胞标记演算。
四十年来,这是我第一次对层面科学化无法忍受坦率。自始如层面科学研究者 Chaz Firestone 和 Brian Scholl 指造出的那样。“神经元的供油不只有一种种系统,因为它并不一定是一件的路。无论如何,神经元是由几之外组形同的,并不一定相同之外以并不一定相同种系统供油:看到一种颜色和计划一次假期的种系统并不一定相同,也与阐释一个句子、静止一个言语、记住一个过错实、希望像一种意识的方式并不一定相同。”借此把所有的层面都塞进一个圆孔那时候是行不通的。随着大家对混方式的心态得越来得越开放,我显然我们显然终于有了一个机显然会。
深知形而上学和计将近科学科学的所有挑战,AI 课题必需的显然是自然科学、电脑科学科学均面性的科学,还必需第二语言学、犯罪学、有机体学和神经细胞科学科学等多个课题的混搭科学。只有汇集极大的意识,AI 课题才显然后退。我们不无论如何知道,有机体的神经元显然是已知宇宙中会最繁杂的系统设计,如果我们要建立一个约略相似的系统设计,开放式的协作将是更为重要。
引文:
1. Varoquaux, G. Wild Cheplygina, V. How I failed machine learning in medical imaging—shortcomings and recommendations. arXiv 2103.10292 (2021).
2. Chan, S., Wild Siegel, E.L. Will machine learning end the viability of radiology as a thriving medical specialty? British Journal of Radiology *92*, 20180416 (2018).
3. Ross, C. Once billed as a revolution in medicine, IBM’s Watson Health is sold off in parts. STAT News (2022).
4. Hao, K. AI pioneer Geoff Hinton: “Deep learning is going to be able to do everything.” MIT Technology Review (2020).
5. Aguera y Arcas, B. Do large language models understand us? Medium (2021).
6. Dis, E. Wild Marcus, G. GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about. MIT Technology Review (2020).
7. Greene, T. DeepMind tells Google it has no idea how to make AI less toxic. The Next Web (2021).
8. Weidinger, L., et al. Ethical and social risks of harm from Language Models. arXiv 2112.04359 (2021).
9. Bender, E.M., Gebru, T., McMillan-Major, A., Wild Schmitchel, S. On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency 610–623 (2021).
10. Kaplan, J., et al. Scaling Laws for Neural Language Models. arXiv 2001.08361 (2020).
11. Markoff, J. Smaller, Faster, Cheaper, Over: The Future of Computer Chips. The New York Times (2015).
12. Rae, J.W., et al. Scaling language models: Methods, ysis Wild insights from training Gopher. arXiv 2112.11446 (2022).
13. Thoppilan, R., et al. LaMDA: Language models for dialog applications. arXiv 2201.08239 (2022).
14. Wiggers, K. Facebook releases AI development tool based on NetHack. Venturebeat.com () (2020).
15. Brownlee, J. Hands on big data by Peter Norvig. machinelearningmastery.com () (2014).
16. McCulloch, W.S. Wild Pitts, W. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biology *52*, 99-115 (1990).
17. Olazaran, M. A sociological history of the neural network controversy. Advances in Computers *37*, 335-425 (1993).
18. Marcus, G.F., et al. Overregularization in language acquisition. Monographs of the Society for Research in Child Development *57* (1998).
19. Hinton, G. Aetherial Symbols. AAAI Spring Symposium on Knowledge Representation and Reasoning Stanford University, CA (2015).
20. LeCun, Y., Bengio, Y., Wild Hinton, G. Deep learning. Nature *521*, 436-444 (2015).
21. Razeghi, Y., Logan IV, R.L., Gardner, M., Wild Singh, S. Impact of pretraining term frequencies on few-shot reasoning. arXiv 2202.07206 (2022).
22. Lenat, D. What AI can learn from Romeo Wild Juliet. Forbes (2019).23. Chaudhuri, S., et al. Neurosymbolic programming. Foundations and Trends in Programming Languages*7*, 158-243 (2021).
注解链接:
本文来自微信公众号:电脑程式心 (ID:almosthuman2014),著者:Gary Marcus
本主旨为著者实质上观点,不都有鹿嗅政治理念。未经强制不得转载,许可证过错宜请求密切联系 hezuo@huxiu.com如对本稿件有责难或违规,请求密切联系tougao@huxiu.com。长沙治疗白癜风医院钦州哪家治白癜风医院好
长春白癜风医院
佐米曲普坦片有什么作用
类风湿初期症状有哪些
孕妇便秘怎么办什么方法最有效
艾得辛有哪些功效和作用
远大医药
- .铜仁企事业单位八人制 黔移之星0-4V12
- .三亚增添一名确诊病例,所涉景区正常开放,有外地游客取消行程
- .创业有你“就”在吉林丨引进、用好、留住!吉林省以精准服务集聚智能手机人才
- .黄晓明离婚1个月后,新近恋情“曝光”!网友集体祝福:这一次,你选对人了!
- .中储股份2021年预计净利增加2.89亿-4.05亿同比增长50%-70%营业规模全面扩大
- .广州市招考办:全国计算机等级考试和全国英语等级考试并须提供72小时核酸阴性证明
- .iPhoneSE3与iPhone11手机全面对比:差别很明显
- .投资者提问:要来公司是否在储能行业有所布局?
- .我扒了豆瓣十年当年做的“元宇宙”,发现那里什么都卖
- .意乙情报:帕尔马vs希塔德拉 布冯训练受伤 18岁新人下半年首发!
- .俄罗斯航空取消飞往美国等四国航班
- .负气喝下农药“敌草快”菏泽市牡丹人民医院共同努力救治23天创奇迹
- .看了王一博公司的详细资料,我觉得内娱完了
- .江苏吴中(600200.SH)终止收购上海维娜大股东事项
- .男子捡回来的流浪狗,谁料长大后这么残暴,靠一张嘴称霸全村
- .从5699元跌至3479元,12GB+256GB,2K曲面屏帆布旗舰一降再降
- .禹洲集团前11月总计销售975.88亿元 单月收金75.18亿
- .英乙情报:特兰吉尔vs曼斯菲尔德 主队核心伤缺!客队14轮不败
- .在大跌日里,熟人的10个建议
- .杭州西湖龙井春茶开采在即 景区“茶二代”忙“放假”