图漾:从“ChatGPT连接图书馆系统”说起
2025/1/5 点击数:288
[作者] 图谋博客
[摘要] 2025年1月5日圕人堂QQ群中,群成员图漾解答了另一位成员的提问。图漾答复:“这是一个非常好的问题,很多图书馆员都会有类似的疑问,相关资讯看的不少,但多是碎片化的知识,仍然处于似懂非懂的状态,因此值得写一篇文字,简单梳理一下相关内容,从‘ChatGPT连接图书馆系统’说起。”全文群文件中分享,特此予以编发。
图谋按:2025年1月5日圕人堂QQ群中,群成员图漾解答了另一位成员的提问。图漾答复:“这是一个非常好的问题,很多图书馆员都会有类似的疑问,相关资讯看的不少,但多是碎片化的知识,仍然处于似懂非懂的状态,因此值得写一篇文字,简单梳理一下相关内容,从‘ChatGPT连接图书馆系统’说起。”全文群文件中分享,特此予以编发。
“ChatGPT能否和图书馆管理平台进行接口,让智能直接回答读者问题?”
这个问题非常有代表性,这是很多图书馆员想了解,而往往又在各个会议主旨报告中得不到答案的问题:也就是大模型如何落地。
先说下结论:当然可以,否则大模型岂不成了废柴?
这里需要说明几点,首先,这个大语言模型不一定是ChatGPT,国内现在有很多平替,免费、收费的都有。其次,不存在一个开关式的接口,吧嗒一摁就能用,而是需要一系列技术的支持,这些技术包括微调(Finetune)、检索增强生成(RAG)、函数调用(Function Calling)等。
ChatGPT这类通用大语言模型的知识库是通过训练数据得来的,受限于训练数据的时间范围,无法全面涵盖所有专业领域的知识,也无法实时获取最新信息,因此在直接应用于特定任务,或者回答特定领域问题,比如有关某个图书馆的具体问题时,往往无法达到理想的性能。要让大模型掌握特定领域知识,一般有如下几种方案:
1,预训练,就是利用专门的任务或特定领域的语料库从头开始训练大模型,比如法律、医学、金融等领域的大模型,这种方案对算力、数据和技术要求都比较高。
2,微调,用特定领域的指令示例,精细控制预训练的大模型适应特定领域或任务,更准确地针对特定业务场景进行回答,比如用你们图书馆faq数据集在已有大模型的基础上进行微调,得到一个微调后的模型,这个模型就是有关你馆信息的一个专家,可以回答有关你馆的问题。这种方案同样需要投入一定的训练资源和时间,而且训练后的模型无法做到信息的更新。
3,检索增强生成,把大语言模型与外部知识相结合,可以有动态数据集和外部知识,相当于给大模型外挂了一个知识库,比如将介绍图书馆的文件分段处理并向量化之后,成为知识库,供大模型使用。这样不改变大模型结构,模型无需重新训练,大大降低了技术门槛和实施成本。
另外,由于大模型无法直接获得一些实时的数据,比如图书的借阅信息、座位预约信息、到馆人数等,这时就需要进行函数调用(Function Calling),函数调用允许大模型和图书馆的ILS、座位预约、门禁等系统进行信息的交互,也就是通过调用外部工具,让大模型回答他们原本无法回答的问题。
拿图书馆智能问答系统来说,就可以构建一个AI智能体(AI Agent)来实现智能问答,什么是智能体呢?智能体是一种“能够感知环境、做出决策并采取行动的系统。这些系统能够执行被动的任务,也能够主动寻找解决问题的方法,适应环境的变化,并在没有人类直接干预的情况下做出决策。”智能体正逐渐成为人与大模型交互的主要方式,很多业内人士认为它是AI应用的最主流形态,即将扮演越来越重要的角色。
回到上述的智能问答Agent,在拿到读者的问题之后,它将分析判断如何处理,是调用了知识库工具,从知识库中检索相关信息,还是联网搜索获取答案,或者是调用外部工具,从上面这些方式中获取信息之后再让大模型总结输出答案,同时,智能体还可以根据反馈进一步调整自己的行为。
目前,几乎所有的大模型厂商都提供以低代码/无代码方式构建AI应用的平台,从智能体构建到AI工作流编排、RAG检索、模型管理等等不一而足,平台一般都会提供了丰富插件和工具,只需简单拖拽和设置就可以构建自己的智能体。这些平台包括字节的扣子、腾讯元器、文心智能体平台、kimi+、京东的言犀……阿里、智谱、讯飞等都有自己的智能体平台。
此外,还有许多开源的LLM应用开发平台,可以部署在本地,如Dify,RAGFlow,FastGPT,MaxKB,AnythingLLM等。因此,构建一个基于大模型的图书馆智能问答系统并不困难,一个简单的demo系统也许半小时就能完成,当然,形成一个实用的系统还要经过多次的调试与优化。我相信,图书馆人充分发挥想象力,可以创造出更多更实用的图书馆AI应用,这是人人可以参与其中的一种大模型在图书馆领域的落地方式。