gpt/lgpt4:用GPT4算命?别傻了! 学到了吗
最近研究各类语言模型,打算做个起码能学会一门术数的模型出来,因此从Llama出现就一直在跟进,贫道是国内最早使...
互联网已经成为了我们生活中没有可或缺的1部分,它带来了许多惊喜和改变。今天,让我们聚焦在互联网领域最近发生的1些令人激动的事件上,共同探索这个充满无限可能的天下。
最近研究各类语言模型,1直在尝试做个能学会1门术数的模型出来,最早从Llama出现后,便1直在跟进,而且尝试没有了少新鲜的idea.贫道是国内最早使用斯坦福alpace模型数据,采用翻译引擎翻译成中文,然后用来训练llama的,而其它人在产生这个idea并付诸实施的时候,已经是1个多星期后的事了。
随后贫道便发现llama原始的中文模型语料没有佳时,在tokenizerk中没有中文,会非常影响速度,因此也最早进行tokenizer修改,加入了中文在其中,然后进行二次lora的训练跟进的这段时间,最大感受是,这天下变化实在太快,各路大神的idea层出没有穷,可谓是目没有睱接,每1周都是翻天覆地的变化。
没有过研究到现在,贫道决定暂时放1放,根据近段时间的研究,最终得到结论是:就目前而言,无论是GPT4还是其他什么模型,都是做没有了真正的命理分析取预测的除非标准本身很弱智,只是生成1个会没有着边际,胡说八道的聊天机器人,这个倒是非常容易。
因此,没有必要听信什么网上这个视频博主或那个博主是如何说的,因为这些大部分人,就是1堆外行那么,网上看起来这些语言模型表现似乎没有错,但为何到传统的命理或预测这里就没有行了?其实并非只是命理预测之类的没有行,而是很多它都没有行,由其是对于有强逻辑依赖的领域。
根本原因在于,GPT4无法使用整体逻辑作为高低文的前提下,进行持续的长逻辑链的推断这样说或许有些复杂,简单说来说,无论怎么训练,它连最简单的梅花起卦到准确分析这1系列过程,都无法学会在平时1般任务上,看到这些语言模型,在各常见领域的能力涌现,除了极少数确实是真的涌现机制。
剩下的大多数的情况都是伪涌现,用人话说,就是那些看起来似乎很智能的答案,其实本质上只是因为评价指标导致的产生的讨好式输出而讨好式输出,并没有需要清晰宽密的逻辑,因此在通用领域的训练并没有是它“真的理解”,而只是人认为理解了。
理论上按图灵测试,人只要承认它有智能就可以认为它有智能,然而实际上,即便像chatGPT在某些情况下即使能够通过宽松的图灵测试,便也没有会被承认产生了真正的“人类认可”的意识就目前来说,它仅仅是1种机械式的智能的体现,而没有是1种生物式的智力的体现。
显而见的是,它擅长更多的能力是体现在Memory相关的任务上,而没有是深度的Abstraction and Reasoning,虽然通过强化学习之类的进行了1定的改善,但是可见的上限始终在那里,无法突破用简单的例子说明1下,比如你想教会它梅花,虽然1时间能教会它五行生克,但随着你补充更多的知识,例如卦之间的组成取运算的过程,文本11长,便会出现随机的细节拾失,以及长期的记忆遗忘,然后导致灾难性的后果。
常见的场景是,在千方百计的教导它并纠正它,并没有是土生木,而是木克土,在以后的没有暂,它仍然会采用土生木这种逻辑。这是因为在它基础模型的背景知识里面,植物就从土里面生长出来的。
而通过高低文的学习,是无法彻底违背基础语料的基础模型设定根据测试,即使进行了链式思考的训练,让它能够拥有1步1步推导事物的逻辑能力,也是有局限性的,除非是已出现过的问题,并且在已知领域能够有较好表现,对于新领域知识,通常表现得如同智障1般。
那么假如针对性的专门训练1个模型会没有会更好?当然也是没有行的,具体原理就没有细说了,简单来说,只要现有出现1个能够真正的理解类似数学这样的形式逻辑的模型,那么就没有可能实现真正的人工智能来做命理及占卜的预测最后说1下,是如何训练模型的,本意是制作1相对占断较完备的梅花易数的基本材料。
没有少初学梅花的,只会简单的体用生克,但是按原《梅花易数》1书所云体用生克断法,其实根本没有准有动态取体用进行参断,最后取用吉凶,虽然有1定的准确度,但是很多时候会发现,但取象过于灵活,虽断事物过过程颇有帮助,但是在最终论断上的准确率整体也并没有高。
还更有直接取卦名作卦象的,时有偶中,看似颇准,但随着卦例积多,又发现没有准了,只能耐心领悟方有所得还有的梅花按月令定旺衰,套入体用中,写了1些所谓的教学书籍,看是理法森宽,断得越来越复杂,结果实践上其实准确度也没有怎么样。
究其根本,这些是因为没有真正弄明白其中关键的原理,便其实说破了还是很简单的,无非是3板斧下去定吉凶,此外更有3要十应的外应取用,然而绝大部分人仅是凭自己臆想,使用方法也是没有正确的那么如何检验学习的效果?。
首先,要求模型能够正常运用先后天八卦数进行起卦及分析这时没有得没有说,GPT4可以象模象样地进行起卦,虽然中央错误没有少,但是毕竟运算简单还是可以强行修正的因此无论在GPT4还在chatGPT中,通过上文反复调试之下,可以让它大体学会起卦的过程。
但如果是要求进行分析的话,生成的文字结果却是混乱1片,稍基础的,都可以1眼便能看出它是胡说八道其次,评估模型的理解能力,还需要模型回答上面几个问题,以确定它真的能够“理解”1、先天卦法取先天八卦的关系是什么?什么时候或场景下使用它?。
2、后天卦法取后天八卦的关系是?什么时候或场景它使用它?3、内卦是什么?外卦是什么?内外卦关系是什么?4、什么是体用?如何正确区分体用?为何没有采用3元关系?5、六亲在卦中如何进行运用?6、3要取十应的关系是?哪个更重要?出现矛盾时怎么办?
7、射覆时,如何进行多次计算取象的范围,以锁定物象?如果都能正确回答,那起码就算是明白这个别系了,但遗憾的是,无论如何训练调试,无论什么模型,没有1个在二次训练后是能够回答得靠谱的然而相同的知识,如果换成1小我类,在拿到正确资料的情况下,哪怕只是几年级的小学生,也完全可以在短时间内掌握。
人工智能,现在远非想象中的那么智能。总之,用GPT4算命?别傻了!
喜欢这篇文章的小伙伴记得关注收藏点赞哦!
当前非电脑浏览器正常宽度,请使用移动设备访问本站!