再续昨天的事,算是我的第一次真正的AI之旅,其实不是第一次,另外干的一件事挑战大得多,有结果(或者没结果)了再说。
昨天说到程序跑进程,正常运行完成,打开来一看图书内容都导入了,还挺完整,连简介都有,很满意。
满意之余就开始有野心,如果希望将这些读书笔记做一个关联,一个途径就是根据其内容为其打上标签,但是这事自己干太累而且不系统,AI能不能帮着干?
于是继续提要求,就好像一个刁钻的老板,考虑到到现在为止我一分钱都没有付给谷歌,基本上算是一个刁钻而且极度吝啬的老板,奈何那边脾气好,一点也不生气,有要求,就照着要求干。
应该是在一个对话进程中有记忆,这一次AI非常简单直接,它判断之前的图书信息已经导入,而且用DeepSeek是合适的选择,于是直接编写了一段代码,继续用DeepSeek分析每一篇读书笔记并且打上五个标签,考虑到读书笔记可能很长,AI建议读最先的1000字与最后的500字用于分析。
没问题,由于之前排雷很多,这一次系统运行非常顺利,扔在后台运行,完事了一看,果然其中出现了标签。
满意之余,开始继续压榨,我之前的微博都存储在一个大文件中(文字形式),微博之间用时间分割,把分割的规则告诉AI,再问它能不能用工具将其切分为一个微博一个文件。
对于AI而言,这个太简单了,考虑到之前各种插件的啰啰嗦嗦,AI直接建议写一段小程序,先把所有内容拷入一个文件中,剩下的事情就好办了,直接运行程序就好了。
但是我有点不放心,提示说分割微博的日期格式可能有差异,有的是01,有的是1,还有一些其他可能的细微差异。
要不说AI开始通人性了,就好像一个爱拍马屁的员工一样,一开始先说您这个提示太重要了,我之前没想到(而不是抱怨你为什么一开始不说清楚),这样,我修改一下代码,让其适应各种日期格式,为了便于日后查询,还可以将日期格式统一并且导入文件头中,您看如何?
如此周到,怎么好拒绝。
这一次不需要DeepSeek分析,所以程序运行极快,一瞬间就切割出数千个独立的文件。
有了之前的经验,下一步自然是让AI解读微博内容,将其打上特征标签,用于日后关联分析。
原本以为有了之前经验应该一帆风顺,没想到程序倒是正常运行,但是运行完了之后,在Obsidian中一查,标签呢?
由于有了一点经验,直接用记事本打开,发现文件头的确加上了标签,但是Obsidian中无法显示。
揪过来AI一问,它判断大约是MD格式要求非常严格,使用的格式不严谨被忽略了,老规矩,编个程序调整一下格式看看,找个几个文件测试一下,几个来回之后,正常了。
那么为什么之前的读书笔记没问题呢?打开一份读书笔记一看,原来标签位置不一样,这个有问题么?又揪过AI一问,原来之前读书笔记的标签写在了正文而非文件头,不利于日后分析,这一次犯了错的AI很自觉,不等我问,自动提供了一段程序修正这个错误。
一顿折腾下来,所有的读书笔记与微博都导入了、正确分割并且打上标签,下一步做什么呢?
当然是开发Obsidian的潜力,比如做个热力图、词云图、某个热点标签的快速查询与关联什么的,涉及到具体软件的使用,AI行么?
答案是可以,从安装第三方插件开始(如果软件中找不到还指导如何从GitHub上直接找插件并且安装),到相关插件的编程(比如如何生成一份词云图或者热力图或者热点标签查询列表),虽然其中有的时候需要调试(大约是软件与三方插件版本的问题),但是基本上相当于一位专业人士手把手辅导了。
结果就是,在经历了两天(具体操作时间不超过3小时)后,将数千份读书笔记与数千份微博导入一个从来没用过的完全陌生的软件,重新排版,增加书目信息,调用人工智能分析内容,加标签,根据标签生成各种分析。其中大量使用我基本不懂的Python程序,总花费谷歌零元,DeepSeek一块多。
如果这不是生产力的提升,不知道什么是了。如果那个更复杂更大的项目能够开花结果,那么至少对我而言,就说明了一件事。
一个新的时代,已经到来了。
发布于 北京
