难怪马斯克讨厌奥特曼……
特斯拉研发自动驾驶汽车已有很长时间。首批搭载"自动驾驶"(Autopilot)功能的Model S早在十年前就已下线。更先进的FSD系统也已交付客户五年多。然而,即便投入了如此多的时间和数十亿美元,这些系统依然令人失望。第三方数据显示,即使是最新版本的FSD,在两次关键脱离之间也只能行驶493英里。但实际情况可能更糟,因为数据显示FSD用户对该系统极度不信任,使用率仅为15%!特斯拉Robotaxi服务的试运营就暴露了其糟糕的安全性,短短几天内,这些车辆就多次被发现严重违反交通法规,危险驾驶。特斯拉似乎毫无进展,只是在徒劳地撞墙。FSD最终肯定会像承诺的那样发挥作用,对吧?然而,根据OpenAI的一份研究报告,事实并非如此……
OpenAI 的危害远不止于取代你的工作、用其低劣的人工智能产品摧毁互联网以及迫使金融机构陷入足以摧毁经济的泡沫。在所有夸张的宣传背后,他们确实拥有一支由顶尖人工智能科学家组成的专业团队,正在进行着卓越的研究。有趣的是,他们最新的论文恰恰可能成为戳破人工智能泡沫的导火索。
这些科学家试图找到阻止人工智能"产生幻觉"的方法。我讨厌这个词。它通过重新定义人工智能的错误,将一台死机器拟人化,这强化了群体性错觉,让我们都相信这个概率盒子竟然有哪怕一丝一毫的智能。例如,METR发现……人工智能编程工具实际上会拖慢开发人员的进度,因为它们会反复出现一些奇怪的错误(例如幻觉),这意味着开发人员不得不花费大量时间进行调试,而这些时间还不如自己编写代码来得快。如果人工智能公司无法消除这类错误,那么它们的工具就毫无用处,它们的整个业务也就失去了价值。
这使得本文的研究结果具有十足的说服力,因为它们表明幻觉是生成式人工智能技术的核心要素,并且无法通过简单地向这些模型添加更多数据和计算能力(这正是OpenAI和整个人工智能行业目前的策略)来修复或降低其发生率。这其实并不令人意外。生成式人工智能仅仅是一个概率引擎,它并不具备思考能力。因此,它总是存在出错的概率。这就是为什么这些科学家还发现,"推理模型"(使用提示修饰符将提示拆分成多个部分,试图从人工智能那里获得更准确的结果)实际上会加剧幻觉!通过将单个提示拆分成多个提示,只会增加这些错误出错的机会。
关注人工智能领域的人早就知道这一点。我们早就知道高效计算前沿的存在,它解释了为什么人工智能会面临严重的收益递减问题。
好的,那么这和特斯拉的FSD(完全自动驾驶)有什么关系呢?
你可能没意识到,FSD实际上是由两个生成式人工智能组成的。它接收来自摄像头画面(且仅接收摄像头画面)的输入,并利用人工智能计算机视觉技术生成车辆周围区域的模型,然后将该模型作为输入,供自动驾驶人工智能生成车辆的控制指令。
顺便一提,FSD 正好印证了我之前关于"人工智能幻觉"这个说法是个糟糕的公关词汇的观点。当 FSD 出错时,我们不会称之为"幻觉",因为汽车会发生碰撞或违反交通法规——我们不想把这些行为拟人化——所以我们称之为错误。
但你明白了吗?FSD 只是两个完全不受支持的生成式 AI 模型协同工作而已。整个系统的设计都基于一个完全错误的观念:生成式 AI 可以做到 100% 准确无误。它没有任何机制来识别和缓解错误(或幻觉)。
几乎所有自动驾驶公司都明白这一点。因此,他们会使用多种传感器,运行多个人工智能系统,并对人工智能系统施加约束,以减少此类错误。激光雷达、雷达和超声波传感器用于验证和修正计算机视觉对汽车周围环境的理解。独立的系统运行雷达和超声波传感器来检测潜在的碰撞,并在必要时干预人工智能,使其刹车以避免事故发生。GPS 数据和作业区域的高精度 3D 地图不仅用于帮助人工智能理解其应采取的行动,还用于限制其可能采取的行动。虽然这些冗余系统不足以使自动驾驶汽车像人类驾驶员一样安全,但它们确实能够发现并减轻几乎所有人工智能的错误(例如幻觉)。
特斯拉过去也采取过类似的做法,2022 年之前的车型都配备了雷达和超声波传感器。虽然这些传感器不足以检测出绝大多数故障,但至少也算是一种辅助手段。然而,尽管工程师们曾警告他不要这样做,马斯克还是强迫特斯拉放弃这些传感器,转而采用纯摄像头方案。
这就是为什么FSD是条死路。特斯拉的整个概念、构建、架构、理念和发展都基于这样一个前提:生成式人工智能很快就能达到近乎100%的可靠性。事实上,马斯克曾多次表示,他们只需要更多的数据就能让FSD(全自动驾驶)绝对可靠,而他们从特斯拉车主那里收集的大量数据将帮助他们实现这一目标。然而,这篇研究论文却如同炸开一艘星舰,彻底推翻了这一说法。
这对特斯拉的未来意味着什么?FSD原本被认为是他们的未来发展方向。这对马斯克的领导信誉又意味着什么?特斯拉的全部价值都建立在这样一个理念之上:他深谙人工智能之道。我想我不需要在这里填写空白处了。
没有评论:
发表评论