96SEO 2026-02-20 01:37 0
。

本篇文章我们将进一步探索这个话题。
比较一下国内外几款知名大模型在相同的实体关系提取任务下的表现。
由于精力有限#xff0c;我们无法全面测试各模型的实体关系抽取能力#xff0c;因此#xff0c;看到的效果…上一篇文章我们探讨了如何使用大语言模型进行实体关系的抽取。
本篇文章我们将进一步探索这个话题。
比较一下国内外几款知名大模型在相同的实体关系提取任务下的表现。
由于精力有限我们无法全面测试各模型的实体关系抽取能力因此看到的效果以及分析的结论也仅限于在该任务下的探讨不能作为各大模型在该方面能力的结论。
这次我们选中用于实验的大模型如下
国外ChatGPT3.5(OpenAI)、Bard(Google)、Llama2-13B(Facebook)
3.5(Old)模型在回答问题时超过了我的提示预期给我带来了巨大的惊喜所以这次我调整了大语言模型的“提示”信息在信息中明确加入了对“账号平台”的抽取如下
请帮我抽取“####”后内容中的黑客组织及其账号与账号平台并输出为json格式
组织开始频繁活动不断在电报群组https://t.me/s/ATW2022Email:AgainstTheWestriseup.net备份
Email:apt49riseup.net、推特_AgainstTheWesthttps://mobile.twitter.com/_AgainstTheWest、Breadched账号AgainstTheWest等境外社交平台开设新账号扩大宣传途径并表现出较明显的亲美西方政治倾向多次声明“攻击目标是俄罗斯、白俄罗斯和中国、伊朗、朝鲜”、“愿意与美国、欧盟政府共享所有文件”、“愿受雇于相关机构”。
后续实验中输入给所有大语言模型的“提示”全部一致即都是上面的这段信息内容。
https://mobile.twitter.com/_AgainstTheWest
从上面的输出可以看到与本系列前一篇文章中GPT3.5的输出内容一致。
完整的按照我们的提示抽取出了黑客组织、账号平台以及账号信息。
并且为抽取出的账号信息做了更明确的定义。
如“apt49riseup.net”被理解为“地址”“
https://t.me/s/ATW2022”被理解为链接。
笔者在设定黑客组织的账号模型时认为域名、电话、邮箱、应用账号等都可被视为账号。
因为这些信息在不同的应用场景下都的确代表了一种身份。
所以ChatGPT给出的答案笔者是很认同的。
我们进一步分析其识别能力有两个细节需要注意。
一个是其将“电报群组Telegram”的相关账号信息拆解成了三个平台另一个是其为“推特”平台识别出了两个账号。
在仔细体会了ChatGPT的输出后笔者觉得在初次处理这组数据时笔者可能更倾向于将电报群组账号邮件账号以及备份邮件账号写成类似“推特”的样子就是一个账号平台下有三个账号。
估计这样的数据组织方式也会是相当一部分工程师的选择。
但是认真考虑ChatGPT的答案你会发现它的分法非常合理。
因为邮件地址一定是一类特殊账号其本质是有别于“电报群组”账号的所以为邮件地址单独定义账号平台是更合理的选择。
至于文本中邮件地址出现在“电报群组”相关上下文的位置笔者则认为更多是为了表达这些邮箱地址是通过“电报群组”的账号关联获得的。
另外ChatGPT抽取了“推特”中的url信息相信有相当一部分工程师在接受到我们输入给ChatGPT同样的需求时是不会将url提取出来作为账号信息的。
但是仔细分析输入文本我们认为ChatGPT将url识别为一种账号是合理的。
ChatGPT的答案也并非无懈可击。
由于其对账号做了更精准的描述其Json格式以账号分类作为字段名在我们没有掌握ChatGPT的全账号分类前我们无法使用通过固定字段名获取账号的方式只能通过遍历Json对象的方式来解析获取各类账号。
数据解析的复杂度比通过固定字段名称访问要大一些。
但整体而言ChatGPT提供的识别能力相较与其带来的处理复杂度是可完全被接受的。
鉴于ChatGPT给出的出色回答。
我们将在后续大模型的答案分析中以此的作为比较的基础。
从Bard的结果看其与ChatGPT的输出非常接近。
更好的一处结果是其将两个邮件地址的账号平台统一成了“电子邮件”。
一处明显的不足是其没有抽取出推特的url。
一处中性的变化是其所有的账号类信息的字段名都是“账号”这更有利于后续的解析处理但账号的类型识别又需要处理时采用类似模式识别来解决了。
https://mobile.twitter.com/_AgainstTheWest
如果我们没有看到过上面两个例子。
第一次看到Llama2的结果还是会认为数据组织的结构是不错的。
除了少识别了一个账号平台外其它信息基本都按要求识别出来了。
但有了上面两个先入为主的例子我们会认为其答案的条例性相对弱一些没有帮助我们提升数据组织的认知。
再有其输出全部为英文没有中文。
正确的将“电报群组”翻译为了“Telegram”。
https://mobile.twitter.com/_AgainstTheWest
文心一言的回答整体结构与Llama2相似但是它没有漏掉任何信息所有信息都识别到了。
甚至感觉其对自己的输出做了强制对齐它为每一个账号信息数据都加入了一个以“链接”命名的字段用于存放链接账号。
只是这个信息对齐略显生硬。
https://mobile.twitter.com/_AgainstTheWest
通义千问的回答中多了一个“政治倾向”的信息输出这个信息是我们在提问时没有要求的。
从答案看通义千问各要素的提取以及账号平台的划分与ChatGPT、Bard一致。
但是与ChatGPT相比其账号没有进一步的分类这使得如果需要更细致的处理账号需要后续通过处理程序进行模式识别来解决。
需要额外提到的是通义千问的Json结构是最简练的。
_AgainstTheWestmobile.twitter.com,
以上答案不是通过混元模型的试用界面获得的,当输入测试的提示时混元会直接告诉你它不支持这种任务。
最后笔者是通过调用混元模型的API接口获得的实验结果。
从输出结果上看其采用了一种更笼统的数据组织方式。
最大的问题是ATW2022riseup.net这个账号信息并不存在是它的一种幻觉。
一个花絮是腾讯的售后在笔者申请试用混元后回访笔者希望用混元的什么能力。
笔者回答希望试用它的实体关系识别能力。
对方明确对笔者说到目前混元在这部分能力比较弱。
这次强拉“混元”上台主要还是因为在国内进行比较“BAT”少了谁家都不太合适。
目前的测试情况的确如售后所言“混元”目前不太支持这个类型的任务期待“混元”后续的版本迎头赶上吧。
从我们实验的效果看除混元、Llama2外其它四个大语言模型基本都能够识别出我们所要求的信息。
输出格式的差异可以通过后续的处理程序对齐。
信息抽取的有效性让我们充分看到了大语言模型在实体关系抽取这类作业上能力。
它将为我们打通一些我们之前无法企及的应用效果的道路。
作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback