别再以为AI写作是这两年才从石头缝里蹦出来的时髦玩意儿。

AI知识库2个月前发布 xiaohe
8 0

当人们还在为ChatGPT的横空出世惊叹、争论、甚至恐慌时,很少有人知道,这场机器与文字的纠缠,其源头可以追溯到一个连黑白电视都还没普及的年代。那是一个充满了真空管、穿孔卡带和巨大轰鸣声的,属于计算机的“石器时代”。

我们得把时间的指针拨回到1952年。

别再以为AI写作是这两年才从石头缝里蹦出来的时髦玩意儿。

想象一下那个场景:英国曼彻斯特大学,一台名叫Ferranti Mark 1的庞然大物占据着整个房间,它嗡嗡作响,散发着热量。一个名叫克里斯托弗·斯特雷奇(Christopher Strachey)的计算机科学家,他后来成了牛津大学第一位计算机科学教授,当时正对着这台巨兽琢磨一个听起来有点离经叛道的点子。他没想着要用它来计算导弹弹道或者破解什么惊天密码,他想干一件……特别浪漫又有点无厘头的事:让机器写情书

是的,你没看错,AI写作的滥觞,人类历史上第一个真正意义上的文本生成程序,不是为了写科学报告,不是为了处理数据,而是一个“情书生成器”(Love Letter Generator)。这本身就像一个绝妙的隐喻。

斯特雷奇的程序,在今天看来简单得可笑。它本质上就是一个“填字游戏”大师。他预设了几个情书的句式模板,比如“我(形容词)地渴望你的(名词)”,然后准备了一堆形容词词库(比如“深情地”、“热烈地”)和名词词库(比如“眼睛”、“双手”)。程序运行时,就从这些词库里随机抓取词语,塞进模板里。

于是,这台冰冷的机器便开始“创作”了。它可能会吐出这样的句子:

“亲爱的,我狂热地爱慕着你可爱的灵魂。”听起来还行,对吧?

但也可能生成:“我的小宝贝,我痛苦地渴望着你迷人的鼻子。”这就……有点诡异了。

这显然不是智能,连“人工智障”都算不上。它不懂什么是“爱慕”,也不懂“鼻子”和“灵魂”的区别。它只是在执行一个简单的、基于随机组合的机械流程。然而,这却是人类第一次,让一台机器自主地、不受单步指令控制地,排列组合语言符号,去模仿一种极具人类情感的创造性行为

那一刻,潘多拉的魔盒被撬开了一条缝。斯特雷奇的情书生成器,就像是史前洞穴里第一簇被人工点燃的火苗,微弱、跳动,却预示着一个全新纪元的到来。

当然,火苗点燃后,经历了相当漫长的一段“黑暗时期”。

到了60年代,一个叫ELIZA的程序粉墨登场。它由麻省理工学院的约瑟夫·魏泽鲍姆(Joseph Weizenbaum)创造,扮演的是一位心理治疗师。你跟它聊天,它会用提问和重复的方式回应你。

你:“我今天很难过。”ELIZA:“你为什么难过呢?”你:“我感觉我妈妈不爱我了。”ELIZA:“能多谈谈你家人的事吗?”

神奇的是,很多人,真的很多人,对着ELIZA倾诉了数小时,甚至对它产生了情感依赖。他们坚信屏幕背后有一个充满智慧和同理心的“人”在倾听。但ELIZA的内核是什么?比情书生成器更高级一点的模式匹配。它识别你话里的关键词(比如“妈妈”),然后从预设的句式库里(比如“能多谈谈你家人的事吗?”)抛出一个回应。它对你的痛苦一无所知,它只是一个语言的“回声壁”。

ELIZA的出现,与其说是一个技术突破,不如说是一个深刻的社会学实验。它揭示了人类是多么渴望在语言中寻找意义,哪怕对方只是一个简单的程序。

从斯特雷奇到ELIZA,这整个漫长的阶段,我们可以称之为“规则驱动时代”。AI写作就像一个带着镣铐的舞者,它的每一步都由人类事先编写好的、死板的规则(Rule-Based)所决定。科学家们试图将语法、句法、逻辑,所有关于语言的一切,都拆解成一条条IF-THEN指令,然后硬塞给计算机。

这就像教一个孩子说话,不是让他去听去看去感受,而是给他一本厚得能砸死人的《新华字典》和《语法大全》,让他死记硬背。结果可想而知:生成的文本僵硬、死板、缺乏灵魂,而且稍微遇到一点规则之外的情况,整个系统就立刻崩溃。这条路,很快就走到了死胡同。

真正的转折点,发生在计算机算力爆炸和互联网数据井喷之后。人们换了个思路:既然教不会,那就让它自己“学”吧!

于是,“统计学模型”的时代来临了。

这背后的逻辑彻底变了。不再是“因为语法规定主谓宾,所以要这么写”,而是“因为我在上亿个句子里看到‘我’后面最常跟着‘是’,所以‘我’后面就该填‘是’”。这是一种基于概率的“暴力美学”。N-grams模型、马尔可夫链,这些听起来很唬人的术语,本质上都是在做一件事:预测下一个词是什么

这时的AI写作,像一个模仿能力极强的学舌鹦鹉。你给它看海量的莎士比亚著作,它就能写出充满“thou”和“thee”的伪莎翁风格句子。但它依然不“懂”。它生成的句子在局部看起来可能很流畅,但拉长了看,往往逻辑混乱,前言不搭后语,像一场语言的梦游。这个阶段诞生了无数垃圾邮件、伪原创文章和读起来狗屁不通的机器翻译。

然而,这只“鹦鹉”的出现,意义非凡。它标志着AI写作从“演绎法”(遵循规则)转向了“归纳法”(从数据中学习),这是一场范式革命的惊雷

真正的海啸,则由“神经网络”“深度学习”掀起。

一开始的RNN、LSTM模型,让AI拥有了初步的“记忆力”,它能记住一句话前面几个词是什么,从而让生成的句子更连贯。但它还是像个记忆力不太好的金鱼,句子一长就忘了开头。

直到2017年,一篇名为《Attention Is All You Need》的论文横空出世,提出了Transformer架构。这个模型的核心机制——“注意力机制”(Attention Mechanism),彻底改变了游戏规则。

怎么理解“注意力”?很简单,当你在阅读“那个打篮球的男孩,他很高”这句话时,你的大脑在处理“他”这个字时,会瞬间将注意力集中到前面的“男孩”身上。Transformer架构就让机器拥有了这种能力,而且是超级加强版。它在生成每一个词的时候,都能“看到”并权衡前面所有词的重要性,从而真正理解上下文的关联。

这不再是简单的“下一个词是什么”的猜谜游戏,而是在一个巨大的、多维的语言空间里,寻找最合理的路径。

基于Transformer架构的GPT系列模型(Generative Pre-trained Transformer),就像是在这条康庄大道上狂飙的赛车。从GPT-1到GPT-2,再到引发全民热议的GPT-3、GPT-4,它们通过在几乎整个互联网的文本数据上进行“预训练”,学到了人类语言的精髓——语法、语感、风格、甚至是隐藏在字里行间的微妙情感和文化背景。

于是,我们看到了今天的景象。AI可以写诗、写小说、写代码、写论文摘要,它的文本在流畅度、逻辑性和创造性上,达到了前所未有的高度,甚至在某些方面超越了普通人。

回望这段历史,从斯特雷奇那台笨拙的、只会随机拼凑情话的机器,到今天能够与你对答如流、文采斐然的语言大模型,这条路走了七十多年。

它始于一个充满人文色彩的奇思妙想——写情书。它在与人类的“对话”中,让我们认清了自身的心理投射(ELIZA)。它在僵硬的规则囚笼中挣扎过。它在海量数据的概率海洋中学会了模仿。最终,它在神经网络的深度时空里,找到了理解和生成语言的“注意力”焦点。

这是一部技术迭代的史诗,更是一面折射人类自身语言、思维与创造力奥秘的镜子。最早的AI写作系统,那个藏在历史尘埃里的“情书生成器”,它或许幼稚、可笑,但它提出的那个终极问题,至今仍在我们的耳边回响:

机器,真的能“创作”吗?而我们,又该如何定义“创作”本身?

© 版权声明

相关文章

暂无评论

暂无评论...