导读 人工智能可以产生幻觉并使用虚假主张来证实论点。一项新的品质显然是科学研究,乍一看就确实证明了预期的结果。好像人类自己还不太擅长这一...
人工智能可以产生幻觉并使用虚假主张来证实论点。一项新的品质显然是科学研究,乍一看就确实证明了预期的结果。好像人类自己还不太擅长这一点。
在研究的帮助下,只要准备充分、认真进行和评估,就可以研究手术技术或所用药物的效果,特别是在医学方面。
根据《JAMA眼科》杂志的一篇论文,这个繁琐的过程可以缩短。得益于ChatGPT目前使用的GPT-4版本以及用于统计数据分析的附加软件,只需点击几下即可创建数据集。
不仅仅是任何数据集。生成的信息旨在证明特定治疗技术相对于替代方法的优势,而这正是它最终所做的。顺便说一句,有关程序中实际存在的数据并不能为任何特定一方提供优势。
因此,只需点击鼠标即可获得所需的结果,而无需花费太多的精力,而不是花费数月或数年的时间进行研究并最终得到“错误”的结果。这听起来像是一个非常令人信服的,其中人工智能除了虚假信息之外还提供了确凿的证据。
毕竟,研究人员也有积极的事情要报告:数据经不起严格审查。例如,给出的名字和性别常常不匹配。此外,某些数据经不起统计分析。例如,太多的年龄信息以“7”或“8”结尾。但据说实际测试结果是一致的。
不是新的,只是更快
如此看来,此类手段是有办法追查到底的。当然,很明显,为了达到预期的结果,研究的结构、评估和修饰总是不正确的。
人工智能只是稍微加速了这一过程。然而,归根结底,它只是一个可以用来解决非常非常复杂的任务的工具。
一个例子:检查所有可能研究的庞大数据集是否存在不一致和统计异常。