当生成式人工智能“睡一觉再想”时会发生什么Here’s What Happens When Generative AI Sleeps On It

环球医讯 / AI与医疗健康来源:www.forbes.com美国 - 英语2024-10-04 12:01:00 - 阅读时长10分钟 - 4794字
探讨人类的“睡一觉再想”决策方式在生成式人工智能中的应用及相关思考
生成式人工智能睡一觉再想决策医疗保健思维链处理计算资源道德代理人工智能伦理人类思维
当生成式人工智能“睡一觉再想”时会发生什么

人类能够“睡一觉再想”以做出更好的决定,那么生成式人工智能呢?

在今天的专栏中,我研究了一个我们都无疑时常使用的长期存在的表达,即当做出决定时,有时您会说您要“睡一觉再想”。这种常见说法的表象是您希望有更多时间来思考需要做出的决定。

人类经常这样说。

旨在“睡一觉再想”的这种说法是否适用于生成式人工智能?

我说是的,适用。

对这个有趣命题的分析是我在Forbes.com上持续进行的关于人工智能最新情况的专栏报道的一部分,包括识别和解释各种人工智能的复杂性(见此处的链接)。

一些关于人类“睡一觉再想”含义的背景将有助于为将人工智能引入画面奠定基础。

在一篇题为“思考、眨眼还是睡一觉再想?思维模式对复杂决策的影响”的研究文章中,作者Ben Newell、Kwan Yao Wong、Jeremy Cheung和Tim Rakow在《实验心理学季刊》(2009年4月)中提出了这些要点(摘录):

“决策者被鼓励做出‘快速’决定(‘眨眼’)或把复杂的选择留给无意识思维的力量(‘睡一觉再想’)。”

“无意识思维理论(UTT)指出,在无意识思维期间,属性的最优加权自然发生,并且这种最优加权导致无意识思考者的特殊偏好和客观选择之间的联系比有意识或即时思考者更紧密。”

“几乎没有证据表明‘无意识’做出的选择更优越,但有一些证据表明有意识的审议可以导致更好的选择。”

问题的核心是,说您想“睡一觉再想”,您这样做是代替做出仓促的判断。您想要更多时间来仔细考虑您的选择。

当有人说他们需要“睡一觉再想”一个重要的考虑因素时,这给了他们一种礼貌或巧妙的回避方式,不必立即做出决定。有时这被承认和同意。他们被给予了缓刑。在其他情况下,例如在紧迫的当下情况,他们不被允许更多时间,必须当场或在眨眼之间做出决定。

因此,一个值得注意的元素是,“睡一觉再想”的声明为您争取了更多的决定时间。

还有一个方面我们需要思考。

您真的需要就手头的问题“睡一觉再想”吗?

换句话说,如果您说您要“睡一觉再想”,从某种意义上说,这只是说您想要一天左右的时间来弄清楚事情。这不一定要求您仅仅因为睡觉而在精神上确定事情。睡觉的借口只是一种快速传达您想要更多时间的方式,例如一夜之间,并在第二天给出回应。

关于睡眠元素的争议

顽固派可能会坚持认为,如果您说您要“睡一觉再想”,您确实必须在睡着时做出决定。您把头放在枕头上,入睡,然后醒来时就有了决定。

这似乎作为一项规定有点愚蠢并且完全值得怀疑。我敢说,很多时候我们通常接受您并不是真的要在睡着时做出决定。再次强调,这种说法更多的是关于争取时间来决定。

在任何情况下,关于您在睡眠中基本上无意识地思考时似乎会发生什么,已经进行了很多研究。我说无意识是因为当您睡着时,您似乎不像我们通常认为的那样有意识。您本身没有被击倒,也不太可能充分意识到您的周围环境。

总之,“睡一觉再想”包括:

(1)与仓促判断相比,为您获得更多做出决定的时间。

(2)通常建议至少隔夜延迟,可能更长,可能更短。

(3)可能真的涉及您在睡眠时的决策过程。

(4)似乎绝对不要求在睡眠期间做出决定。

(5)睡眠可能只是让您的头脑清醒,使您更清楚地做出决定。

(6)您可能然后在完全清醒时决定,受益于时间延迟和允许的睡眠努力。

将人工智能引入大局

在人工智能的背景下,“睡一觉再想”意味着什么?

我将分享我对此的想法,但首先想让您参与一些促使我决心写这个问题的事情。

关于人工智能是什么或不是什么,以及人工智能能做什么和不能做什么,有很多假设,通常由人工智能专家和非人工智能专家提出。我一直在广泛报道生成式人工智能在医疗和医疗保健领域的作用,特别是在人工智能和心理健康领域(见我在此处的综合分析)。有时,我看到有关人工智能的言论,促使我提供重要的评论。

这里是让我感到惊讶的事情。一篇关于一位医生的文章,在看了病人后的第二天,由于“睡一觉再想”,能够做出进一步的努力,提到人工智能大概不能做类似的事情。因此,我们被引导相信,即使是今天我们所知道的人工智能也被描绘为绝对的劣势。

这个话题出现在最近一篇关于医疗决策的文章“回声的担忧:医学中的人工智能和道德代理”中,作者Sarah Hull和Joseph J. Fins,发表于《美国医学会心脏病学杂志》,2024年9月2日,其中提出了这些要点(摘录):

“虽然这个案例强调了即使在这个先进成像的时代,身体检查技能的持续相关性,但也许它更突出的教训是临床沉思和担忧的重要性。”

“如果诊断评估的任务被委托给一个未来主义的由人工智能增强的听诊器,它的钟形和膜片会在抽屉里安静地过夜,不会担心它‘听到’的东西。”

“虽然它可能通过算法立即推荐超声心动图——或者可能不推荐,取决于其声学能力和软件的保真度和可靠性——但它肯定没有道德意识为是否做出了正确的决定而失眠。”

“这重要吗?我们应该关心人工智能本质上无法为我们担心吗?”

关键是,我经常听到或读到人工智能缺乏道德代理,因此我们似乎要谴责人工智能或假设人工智能不能做这个或那个。

让我们澄清这一点。

直说事实

正如我上面提到的,人类在精神上对某事进行渗透并想出更多想法或决心的情况可能在“睡一觉再想”之后出现。这可能涉及睡眠部分,也可能只是利用了额外的时间进行更深入的思考。

可以说,我们对人工智能也肯定可以做同样的事情。

例如,我最近报道过,OpenAI的最新ChatGPT生成式人工智能o1由于采用了被称为思维链处理的附加方法,有可能部分地得出改进的答案(见此处的链接)。思维链方法迫使人工智能花费更多的计算周期,逐步在系统的基础上工作,并更广泛地计算答案。您需要等待更长时间才能得到回复,但希望等待是值得的,以获得更好的响应。

我把这比作下棋。如果您时间紧迫,必须在瞬间做出国际象棋的走法,那么精神探索的量就非常有限。以有节奏的速度下棋可以让您检查更多的走法,并尝试预测棋盘上可能发生的事情。基于人工智能的国际象棋游戏系统面临类似的难题,即如果时间较少,搜索空间必须缩小,而如果时间充足,搜索空间可以更广泛地评估。

我的观点是,对于生成式人工智能,我们可以很容易地告诉人工智能花费更多的时间和计算资源进一步探索,而不是像它原本可能做的那样。这可以设置为自动发生。本质上,您可以简单地允许总是有更多的时间,因此人工智能将根据您的要求消耗额外的计算周期来找到更深入的答案(当然,如果您为计算使用付费,这可能会让您花费更多,但那是另一天的故事)。

使用ChatGPT“睡一觉再想”的示例

跟我一起假设我们撇开睡眠方面,专注于获得更多时间做出决定的想法。我登录到广受欢迎的ChatGPT,并决定看看生成式人工智能是否能帮助我想出一个营销标语。

以下是对话:

“我输入的提示:‘我需要一个我的环保咖啡品牌的吸引人的标语。你能生成几个选项吗?’

ChatGPT生成的响应:‘当然!以下是三个选项:“酿造更好,生活更绿。”;“可持续地啜饮,自然地繁荣。”;“环保酿造,美好明天。’

我输入的提示:‘我想要更独特和大胆的。这些感觉有点太标准了。你能想出一些不同的吗?’

ChatGPT生成的响应:‘让我处理一下。您是希望我立即再试一次,还是希望休息一下以完善创意方向(从某种意义上说,睡一觉再想)?’

我输入的提示:‘休息一下,用更多时间。’

然后我注销了。

第二天,我重新登录。

我输入的提示:‘关于我的吸引人的标语,你想出了什么?’

ChatGPT生成的响应:‘经过思考,这里是新的一批标语,考虑到您想要的冒险和大胆的语气:“点燃您的火焰,拯救地球。”;“敢于酿造,拒绝浪费。”;“可持续的啜饮,大胆的举动。’

我输入的提示:‘这些好多了!我很喜欢“敢于酿造,拒绝浪费”。它捕捉到了我想要的反叛精神。’

ChatGPT生成的响应:‘很高兴您喜欢!花些时间让我能够调整创意方向,并提供更符合您愿景的东西。’

正如您所看到的,额外的计算时间似乎得到了改进的响应。

我觉得有必要提及的一个题外话。我讨厌大多数生成式人工智能响应中那些表面上使人工智能拟人化的措辞。这是不必要的,而且极其误导。我一再指出,人工智能制造商可以轻松地更改生成式人工智能产生的措辞,以避免以这种方式误导(见我在此处的讨论)。

回到手头的问题。

您可能会争论提议的标语是否比初始集好得多,但我的重点是人工智能被给予了额外的时间来制定响应。有时响应可能会得到改进,但诚然,其他时候改进可能看起来微不足道或极小。

这就是事情的发展方式。

本杰明·富兰克林知道“睡一觉再想”

最后几点想法。

一个人工智能驱动的系统,即使是在医疗背景下,也可以建立为进行一次性即时响应,或者设置为提供即时和长期的答案。您可以告诉人工智能立即给出答案,因为您希望立即获得最快的响应。另外,您可以告诉人工智能消耗更多的计算周期,比如说过夜工作,并进行更深入的探索,类似于我之前提到的下棋。

这引发了一系列复杂的人工智能伦理问题和人工智能法律问题。

假设提供人工智能的供应商选择缩短允许的计算处理时间。人工智能吐出一个答案。答案是一个大致计算的答案。如果人工智能被推动更深入地处理,也许可能会找到不同或更好的答案。这种设置的适当限制是什么?如果生死决策处于危险之中,您无疑可以看出这些设计和部署决策的重要性。

我也想澄清,我并不是说今天的人工智能有任何道德代理的迹象。现代人工智能没有感知能力。我们似乎正在走向通用人工智能或AGI,如果我们到达那里,无疑将改变我们对人工智能道德考虑的观点(例如,见我在此处和此处的讨论)。我们还没有到达那里。

生成式人工智能是模仿人类写作的一种方式。人工智能已经通过计算在互联网上找到的人类书面作品进行了数据训练。当您与生成式人工智能互动时,它本质上是在某种程度上模仿人类表达自己的模式。

我提到这一点是因为我们可以对人类“睡一觉再想”的现象进行类似的模仿。人工智能可以很容易地被引导花费额外的计算周期来寻求更深入或更好的响应。这不是基于人工智能自身的道德选择;这是制造人工智能和/或使用人工智能的人类的选择。

最后一个评论。

人类做事的方式和人工智能做事的方式都有权衡。

人类可能会“睡一觉再想”的想法,这是一个相当独特的方面。有时医生可能会“睡一觉再想”,但其他时候他们可能会决定他们的第一个决定是正确的,不需要进一步思考(尽管如果他们“睡一觉再想”,他们的初始判断可能会被放大)。或者他们可能因为病人的病例太多而不知所措,根本没有精神带宽来“睡一觉再想”,尤其是在看到无数病例和每天看病人的情况下。

对于一个人工智能系统,如果这是您想要做的(并且能够负担得起),您可以基本上保证“睡一觉再想”会发生。所有病例和所有病人。每一天。无一例外。这将是一个铁定的提议。

我并不是说这使人工智能比人类更好。不。所以请不要喷我。我指出的是,人类有很大的可变性,尽管我们确实发挥了人类的思维。今天的人工智能不如人类的思维,但如果愿意,我们可以从自动化中获得某种一致性和广泛性。

在人类和人工智能共同工作的情况下,我们可能会得到两个世界的最佳效果。一位有时会“睡一觉再想”的人类医生,加上一个总是“睡一觉再想”的基于人工智能的系统,推动两者携手工作,以提供尽可能高质量的护理。一个令人向往的目标。

就说到这里。

正如著名的本杰明·富兰克林在1772年关于某种“睡一觉再想”的养生法所指出的:

“我最终找到了平衡所在;如果经过一两天的进一步考虑,双方都没有出现任何重要的新情况,我就会做出决定。我认为我可以判断得更好,并且不太可能迈出轻率的一步。”

当时是真实的话,今天仍然是真实的话。

在Twitter上关注我。

Lance Eliot

(全文结束)

大健康
大健康