首页 游戏资讯文章正文

如何判断你正在阅读的内容是否由人工智能编写

游戏资讯 2025年03月16日 15:26 7 admin

  

  

  这篇文章是Lifehacker“揭露人工智能”系列的一部分。我们正在探索六种不同类型的人工智能生成的媒体,并强调常见的怪癖,副产品和标志,帮助你区分人工和人类创造的内容。

  从ChatGPT在2022年底向世界介绍生成人工智能的那一刻起,很明显,未来,你不能再相信你正在阅读的东西是由人类写的。你可以要求像ChatGPT这样的人工智能程序写一些东西——任何东西——它会在几秒钟内完成。所以你怎么能相信你读到的是一个人的想法,而不是一个算法的产物呢?

  如果说人工智能泡沫的持续缩小向我们展示了什么的话,那就是大多数人都讨厌人工智能,这意味着他们可能不喜欢自己正在阅读的东西是由机器轻率地吐出的。尽管如此,有些人还是完全接受了人工智能生成逼真文本的能力,无论好坏。去年,CNET悄悄地开始在人类撰写的文章旁边发布人工智能内容,结果却遭到了自己员工的嘲笑和反对。Lifehacker的前母公司G/O Media也在其网站上发布了人工智能内容,尽管是公开的,但也经历了同样的挫折——既因为在没有员工投入的情况下实施了这项技术,也因为内容本身很糟糕。

  但并非所有人工智能生成的文本都能如此直白地表达自己。如果使用得当,人工智能程序可以生成令人信服的文本——即使你仍然可以发现揭示其不人道来源的线索。

  生成式人工智能并不是某种无所不知的数字意识,可以像人类一样回答你的问题。它实际上一点也不“智能”。目前的人工智能工具是由大型语言模型(llm)驱动的,llm是在庞大的数据集上训练的深度学习算法——在这种情况下,是文本数据集。这种训练通知他们对用户查询的所有响应。当你让ChatGPT给你写点东西时,人工智能会分解你的问题,并确定它“认为”你的问题中最重要的元素。然后,它根据对单词之间关系的理解,“预测”回答你的请求的正确单词顺序。

  更强大的模型能够同时获取更多的信息,同时返回更长时间、更自然的结果。此外,聊天机器人通常会被编程为适用于所有提示的自定义指令,如果有策略地使用这些指令,可能会掩盖人工智能生成文本的通常迹象。

  也就是说,无论你如何哄骗人工智能做出回应,它都要感谢它的训练,而且很可能有迹象表明这样的文本是由法学硕士生成的。这里有一些事情需要注意。

  因为聊天机器人已经被训练去寻找单词之间的关系,它们往往比人类更频繁地使用某些单词和短语。没有特定的单词和短语列表可以作为危险信号,但是如果你经常使用像ChatGPT这样的工具,你可能会开始发现它们。

  例如,ChatGPT经常使用单词“delve”,特别是在写作的过渡期间。(如。“让我们深入研究一下它的含义。”)这个工具也喜欢表达一个想法是如何“强调”整个论点的(例如:“这次经历强调了坚持的重要性……”),以及一件事如何“证明”另一件事。(我在这部分用ChatGPT写了三篇文章——两篇用gpt - 40,一篇用gpt - 40迷你版——每篇都出现了“遗嘱”。)

  同样,你可能会看到诸如“涌现”、“无情”、“开创性”等词的重复使用,以及其他一些著名的常规词汇。特别是,当ChatGPT描述某物的集合时,它通常将其称为“马赛克”或“挂毯”。(如。“马德里的文化景观是一幅充满活力的马赛克。”)

  Reddit网站r/chatgpt上的这篇帖子强调了一些常见的模型,不过值得注意的是,这篇帖子是10个月前发布的,OpenAI经常更新它的模型,所以其中一些可能与今天的情况不太相关。在我的测试中,我发现Reddit帖子中被引用最多的一些词根本没有出现在我的测试文章中,而其他一些词则经常出现。

  所有这些词在你写作的时候都非常适合使用。如果一个学生在他们的文章中写了“钻研”,这并不能证明他们是用ChatGPT生成的。如果一名员工在报告中写下某件事是另一件事的“证明”,这并不意味着他们把自己的工作外包给了人工智能。这只是你在分析文本时需要注意的AI写作的一个方面。

  人工智能对查询的响应速度之快令人印象深刻,尤其是当你与一个特别强大的法学硕士合作时。虽然有些写作看起来很自然,但如果你仔细阅读,你会开始注意到大多数人类作家不会使用的怪癖。

  无论你使用的是OpenAI的GPT模型还是谷歌的Gemini模型,人工智能都有一个坏习惯,那就是使用华丽的语言,就好像它主要是在营销文案上训练的一样。人工智能通常会试图向你推销它所谈论的任何东西:它所写的城市通常是“完整的”、“充满活力的”,是它所在国家的“基石”;它所使用的类比“完美地”突出了整个论点;负面后果不仅是坏的,而且是“毁灭性的”。这些例子都不是孤立的,但如果你读了足够多的人工智能文本,你就会开始觉得自己在和同义词词典交谈。

  当聊天机器人试图使用随意的语气时,这一点变得更加明显。例如,如果机器人声称自己是一个真人,它通常会表现得冒泡、夸大其词,而且太过热情,根本听不进去你说的任何话。公平地说,在我为本文进行的测试中,ChatGPT的gpt - 40模型似乎不像以前那样经常这样做,它更喜欢对个人查询做出更简洁的回应——但meta AI的聊天机器人绝对还是这样做的,每当我分享一个我遇到的假问题时,它就会扮演最好的朋友和治疗师的角色。

  如果你正在阅读一篇表达论点的文章或文章,注意“作者”是如何组织他们的观点的。如果有人要求人工智能工具在不给它太多指导的情况下写一篇关于某个主题的文章,那么他通常会收到一篇实际上并没有深入研究论点的文章。人工智能可能会生成一些简短的段落,提供一些表面的要点,但这些要点并不能加深争论或有助于叙述,而是用前面提到的10美元的单词和华丽的语言来掩盖这些局限性。每个段落可能更像是对论点的总结,而不是试图对论点本身做出贡献。记住,法学硕士甚至不知道自己在争论什么;它只是把它认为应该在一起的单词串在一起。

  如果你觉得自己什么都没学到就离开了,那可能是AI在做的。

  法学硕士是黑盒子。它们的训练是如此复杂,我们无法深入了解它们是如何建立对单词之间关系的理解的。我们所知道的是,所有的人工智能都有产生幻觉的能力(和倾向)。换句话说,有时候人工智能会编造一些东西。同样,法学硕士实际上什么都不知道:他们只是根据训练预测单词的模式。因此,虽然他们吐出的很多东西可能都是基于事实的,但有时它的预测是错误的,你可能会得到一些奇怪的结果。如果你正在阅读一篇文章,你看到一个你知道不是真的说法,尤其是没有来源的说法,要持怀疑态度。

  另一方面,考虑需要多少校对工作。如果没有拼写错误,也没有语法错误,这也是人工智能的一个提示:这些模型可能会编造一些东西,但它们不会输出拼写错误等错误。当然,也许作者确保在每个“i”上点上点,在每个“t”上划上叉,但如果你已经担心文本是由人工智能生成的,那么生硬的完美主义可能是一个泄露。

  像法学硕士一样,人工智能检测器是基于人工智能模型的。然而,这些检测器不是在大量的一般文本上进行训练,而是专门针对人工智能文本进行训练。从理论上讲,这意味着他们应该能够在提供样本时识别AI文本。但情况并非总是如此。

  当我去年写关于人工智能探测器的文章时,我警告不要使用它们,因为它们并不像它们声称的那样可靠。很难说自那以后它们有了多大的改进:当我通过ZeroGPT这样的工具输入我的一个故事时,它说我的文章是100%由人类编写的。(该死的权利。)如果我提交一篇由Gemini生成的关于哈利波特系列中哈利失去父母的重要性的文章,该工具会识别出94.95%的文章是人工智能生成的。(它认为唯一一句出自人类之手的话是:“这场冲突中的个人利害关系使哈利有别于其他角色,赋予了他坚定的目标。”确定。)

  然而,探测器仍然没有通过我在2023年给它做的同样的测试:它100%相信第一条。,第2节。美国宪法是人工智能生成的。谁来告诉国会!我还分析了2015年7月16日发表在《纽约时报》上的一篇短文,这篇文章远远早于现代法学硕士的出现。再一次,我确信这个作品是100%的AI。

  市场上有很多人工智能探测器,也许有些比其他更好。如果你发现一种方法能够可靠地识别出你所知道的是人类生成的文本,同样地,对于你所知道的是人工智能生成的文本,那就继续测试你不确定的写作。但我仍然认为更好的方法是自己分析。人工智能文本正变得越来越逼真,但它仍然有很多可以暴露自己的地方——通常,当你看到它的时候就会知道。

0513资讯鲁ICP备2021033673号-3 备案号:川ICP备66666666号 Z-BlogPHP强力驱动 主题作者QQ:201825640