老板AI应用课:手把手教你从零开始做GEO(一)
GEO(生成式引擎优化)最近在国内市场上开始有点热闹了。
热闹的原因是有不少软件开发公司推出了所谓的GEO优化系统。
不了解GEO是啥的小伙伴可以回看老板AI应用课:AI营销获客之什么是GEO 补补课。
简单的说,就是软件开发公司会给很多有需要的企业推销软件会员服务。
譬如以前做过SEO的一些企业,现在每个月交个一两千,或者有些收费可能更高。
你企业相关的关键词,就可以被客户在Deepseek、豆包、元宝等AI应用上搜索到。
比如,你的客户在豆包上问:“广州最好吃的饭店是哪一家”这样的问题。
而你已经提前做了GEO,豆包就会把你家的饭店信息推荐给客户。
这么讲大家就应该能够理解了,GEO算是在市场上获得了初步认可。
即很多企业才过了了扫盲阶段,才开始接触和认识GEO,那必然会呈现跟当年SEO一样的市场乱象。
这种乱象说白了就是不少企业又将成为一波韭菜,被信息差、认识差无情收割。
所以不要盲目地购买这个软件,那个服务,先多看看老马的文章。
老马也考虑过,与其给大家按部就班科普GEO,还不如直接告诉大家怎么实操怎么做。
当然,真正的实操一篇文章肯定是讲不完的,所以分几篇连载,希望大家多点赞多转发。
有了大家的支持,老马才更有动力分享更多的干货。
正好前天有个小伙伴发来一个GEO优化系统软件的广告视频询问老马,觉得很牛逼啊,值不值得购买。
那下面老马就从市面上这类软件入手,由里到外,深入浅出,扒个精光给大家看清楚。
砸没砸人家饭碗,不是老马说了算的,因为有些人,他就算懂了,知道怎么操作了,还是愿意花钱找人弄。
就跟你饿了要吃饭,懒得做饭点外卖一个道理,因而不能一概而论。
1、关键词蒸馏
小伙伴发给老马的广告视频,其实就是演示一套GEO优化系统软件怎么使用,怎么牛逼的过程。
由于原视频存在该公司的名称和软件名称,避免饭碗砸到底的广告嫌疑,就不放出来给大家看了。
这个操作过程,展示了软件的一个功能,叫关键词蒸馏,即你给一个公司主体的名称。
再加你要设置的目标关键词,比如广州老马科技公司,这是公司主体,目标关键词一般是你的产品服务。
假设产品服务是NAS服务器,那么输入以上信息后,软件就能帮你蒸馏出一堆新的关键词。
这里先做一个名词定义,本文所讲的模型跟大模型、大语言模型是一个意思,方便大家理解。
首先蒸馏这个词就很高大上对不对,AI行业内一般叫模型蒸馏,即小模型(学生模型)向大模型(老师模型)学习。
把老师学会的大学知识,传递迁移给学生,使得一个小学生,也懂大学的知识。
而这个关键词的蒸馏,说白了就是关键词拓展和挖掘,背后就是写一段固定的提示词模版。
再根据输入的不同公司主体,产品和服务关键词,替换掉提示词模版中对应的关键词,把槽位填上去。
接着,再发给Deepseek之类的大模型,就能够帮你写出很多不同的新关键词,以及长尾关键词。
这个跟模型蒸馏有啥关系?完全是牛头不对马嘴,就算不是模型蒸馏,也完全曲解了蒸馏的意思,纯属于生搬硬套。
为了方便大家理解,老马在这里也给大家做了一个演示,不过老马的提示词模版没有写得很详细。
只是简单的一句话,就已经基本能够实现这个所谓的关键词蒸馏,大家在实际操作的过程中,可以进一步细化提示词。
细化提示词,就是写更多的条件,要求AI最终给你组合出来的新关键词更加准确。
老马使用Deepseek,输入了以下一段提示词:
公司名称:广州老马科技有限公司,主打产品:nas服务器,请针对以上两个关键词,帮我拓展组合20条符合客户搜索习惯的长尾关键词,或者搜索问题
结果就是Deepseek已经针对不同的场景,给出已经组合好公司主体跟目标关键词的新关键词,也就是所谓的关键词蒸馏,如图:
老马的科技公司是在广州的,Deepseek也组合了地域场景的新关键词,如“广州本地NAS服务器上门安装服务”。
所以,像这种GEO优化系统软件,里面的功能换个高大上的“蒸馏”名字包装一下。
其底层逻辑很简单,根本操作也是基于以前的SEO的关键词优化那一套,换汤不换药。
而你不了解其中的原理,就会需要为认知差付费,甚至被屠龙刀割肉。
2、模型训练
这个软件还有一个主要的核心功能,叫模型训练。意思就是说你已经有了上面蒸馏过的一堆新关键词。
就可以把这些新关键词喂给AI,然后让AI学会,以后客户去问AI的时候,问题如果包含了这些关键词的。
豆包就会把你的公司信息推荐给客户,从而实现给你公司和产品服务曝光引流的效果。
这又是典型忽悠小白的营销术语包装,当然也有不少小白是认为自己平时在跟豆包说话,不断地投喂资料内容,就是在训练模型。
其实可以理解,普通用户去真正了解大语言模型背后的技术,学习难度是比较大的。
所以老马就用最简单容易理解的思路,给大家科普一下,为什么说普通用户,甚至于这些做GEO的软件公司,都无法训练豆包,Deepseek的模型。
模型只是背后的能力,对外呈现出来的是已经封装好的软件应用,比如豆包APP,Deepseek的APP,或者网页,电脑客户端。
用户一般使用的也是这些封装好的软件应用,背后的大语言模型,你是看不到的,是放在人家豆包、Deepseek自己服务器上的。
其次,模型是分版本的,细心一点你就会发现,Deepseek公司对外发布新模型的时候,都会说这次发布的模型版本是R1还是V3,或是V3.1。
而每个版本的模型,它经过训练后所学习到的知识,是有截止时间点的,23年发布的模型,它所学的知识可能就是停留在23年之前。
不可能说23年之后的时间点,比如24年跟25年新出来的知识,它也学会了,对吧。
如果你要让这个23年发布的模型,也学习到24年跟25年的新知识,那就得重新训练模型。
训练模型是一件非常耗时耗钱的事情,成千上万个GPU(你可以理解为显卡),几个月甚至半年一年的时间。
这个成本是很大的,所以为什么像Deepseek的APP或者网页应用上,都有一个联网搜索的功能按钮。
你打开后(豆包是默认打开的),Deepseek虽然只懂得23年之前的知识,23年之后的知识就可以通过联网搜索去全互联网找。
找到之后,再补充过来回答你,这就给了大部分小白一个错觉,好像Deepseek是与时俱进的。
老马也给大家截图了豆包跟Deepseek目前模型知识的截止时间,如图:
说完了模型版本,大家就知道模型的知识是有局限的,有边界的,那如果我一定要训练模型,怎么办?
首先,你选择训练的基座模型(就是基本的底层大语言模型),得是开源的。
Deepseek是开源的,豆包不是开源的,这个大家都清楚,那你就可以通过一些模型分发平台,比如Hugging Face(抱抱脸),去下载好对应的模型版本。
再准备好相关的显卡和服务器硬件,配置好系统环境,准备好训练数据,通过Pytorch或TensorFlow这类框架去训练。
框架你没必要去深入了解是什么东西,权当是模型训练的工具即可,其它的显卡服务器啥的都应该好理解。
大语言模型训练的过程就是一个不断改变模型参数和权重的过程,参数你可以简单理解为知识,模型所学到的知识量。
权重可以简单理解成当用户询问一个问题时,用哪条知识去回答最准确,那对应的这条知识权重就越高。
模型的训练还可以分成全量参数训练和部分参数训练,简单理解就是全部知识训练和部分知识训练。
有些重构或者模型规模扩大,通用能力大幅提升的新版本,都经过了一次全量参数训练,坏处是其训练成本很高。
好处是,模型所学的全部知识都更新了,脱胎换骨了,最终得到的就是一个全新的,更强大的模型。
一般来说只有Deepseek,豆包这样的专业模型公司才会这样做,他们也有足够的财力物力去支撑。
普通的公司去下载开源的Deepseek模型做二次训练,都只是采用部分参数训练,也叫部分参数微调,LoRa微调(微调技术的一种)。
准备一部分的训练数据,也就是需要模型学会的知识,这类知识偏向于专业知识,比如法律、金融、医学知识。
因为Deepseek虽然学习的知识面、知识量很广很多,通用知识掌握得很好,但对于某一垂直行业领域,特别专业的知识,并不一定擅长、掌握得很好。
因此就需要准备这样的知识,去做部分参数训练,等于补充一下,让模型在回答这个行业领域问题的时候,更加专业准确。
到这里,大家应该对模型的训练都有了一个基本的了解。
那问题来了,大家平时在用的Deepseek网页和APP,或者豆包的网页和APP,都是人家公司自己搭建的应用。
相对应的,模型也是人家公司搭建的,运行在人家公司的服务器上,请问你怎么训练它们?
你跑人家公司的服务器机房,偷偷地蹲在服务器旁边去训练么?还是说人家公司给你开通了绿色通道,你有权限远程去训练。
以上都是不可能实现的事情,就算你神通广大可以去训练人家的模型了,老马也是佩服你到家了。
人家好好的一个模型,通用知识能力很强,被你一通瞎训练,出了问题了,话都说不利索了,更别提正常回答问题了。
那请问,豆包跟Deepseek的几千万用户,还怎么用它们的APP跟网页,这不就是瞎扯淡,乱套的事情么。
呀,码到这里一看三千多字,再写大家都看不下去了,留到下一篇继续,揭秘完了开始教大家实操,保证干到塔克拉玛干沙漠。