96SEO 2026-05-04 07:28 0
在实际的 AI 产品里用户总会好奇「这条回答到底用了多久?」、「背后是哪家供应商?」等细节。把这些信息收集、返回、再优雅地呈现在聊天窗口,不仅提升透明度,还Neng帮助运营团队快速定位瓶颈。本文将用通俗的语言、完整的代码示例,手把手教你实现「耗时统计 + 基础元信息」的全链路。

提升用户信任感:kan到模型名称、提供方以及响应时间,用户会觉得系统geng「可解释」。
运维监控:当某个模型突发慢响应,后台日志里Yi经有了精准的毫秒级数据,排查成本大幅下降。
产品迭代依据:通过 token 使用量Ke以评估不同模型的经济性,为付费方案提供依据。
下面我们先从后端计时说起,再把结果一路搬到前端 UI。
二、后端:同步调用与流式调用两套实现 1️⃣ 同步接口——一次性返回完整答案核心思路:在请求开始前记录一个高精度时间点,业务结束后再算差值。随后把「提供方、模型名、耗时、生成时间」连同 token 用量一起封装进 meta 字段返回。
from pydantic import BaseModel
from typing import Optional
import time
from datetime import datetime
class ChatResponse:
reply: str
meta: Optional = None
下面是处理函数的关键片段:
def handle_chat:
start = time.perf_counter
meta = None
try:
client, cfg = create_client_by_model
result = client.chat.completions.create(
model=cfg,
messages=req.messages,
temperature=req.temperature or 0.7,
top_p=req.top_p or 1.0,
max_tokens=req.max_tokens or 1024,
)
answer = result.choices.message.content or ""
elapsed_ms = int - start) * 1000)
usage = getattr
meta = {
"provider": cfg,
"model": req.model or DEFAULT_MODEL_NAME,
"duration_ms": elapsed_ms,
"reply_at": datetime.now.isoformat,
"usage": {
"prompt_tokens": getattr if usage else None,
"completion_tokens": getattr if usage else None,
"total_tokens": getattr if usage else None,
},
}
except Exception as exc:
print
answer = "AI 服务暂不可用,请稍后再试"
elapsed_ms = int - start) * 1000)
meta = {
"provider": None,
"model": req.model or DEFAULT_MODEL_NAME,
"duration_ms": elapsed_ms,
"reply_at": datetime.now.isoformat,
"usage": {"prompt_tokens": None, "completion_tokens": None, "total_tokens": None},
}
return ChatResponse
2️⃣ 流式接口——边读边写,Zui后一次性推送 meta
流式场景稍微复杂一点:我们在循环读取 chunk 的同时累计完整回复;所有 chunk 发完之后再计算一次耗时并把 meta 包装进 done 事件回传。
def stream_chat:
full_reply = ""
start = time.perf_counter
provider_name = None
model_name = req.model or DEFAULT_MODEL_NAME
try:
client, cfg = create_client_by_model
provider_name = cfg
stream_obj = client.chat.completions.create(
model=cfg,
messages=req.messages,
temperature=req.temperature or 0.7,
top_p=req.top_p or 1.0,
max_tokens=req.max_tokens or 1024,
stream=True,
)
for chunk in stream_obj:
delta_text = chunk.choices.delta.content or ""
if delta_text:
full_reply += delta_text
yield f"data: {json.dumps}
"
except Exception as e:
print
yield f"data: {json.dumps}
"
return
# ---- 收尾阶段 ----
elapsed_ms = int - start) * 1000)
meta_info = {
"provider": provider_name,
"model": model_name,
"duration_ms": elapsed_ms,
"reply_at": datetime.now.isoformat,
# 流式暂不提供 token 用量,保持字段结构一致
"usage":{"prompt_tokens":None,"completion_tokens":None,"total_tokens":None},
}
yield f"data: {json.dumps}
"
三、前端:把元信息塞进 UI 的每一步骤
① 在 session 数据结构里预留位置
# web/src/utils/session.js
export default {
maxTokens: null,
memoryEnabled:true,
lastReplyMeta:null, // ← 新增字段,用来保存Zui近一次响应的 meta
pinned:false,
// …其余属性保持不变
}
加载Yi有会话时同样给它补默认值:
# normalize 阶段
return {
memoryEnabled:true,
lastReplyMeta:null,
pinned:false,
...item
}
② 在根组件 App.vue 中计算当前会话的 meta
import { computed } from 'vue'
const currentReplyMeta = computed => {
return currentSession.value?.lastReplyMeta || null
})
③ 保存 meta —— 同步请求成功后geng新 session
updateCurrentSession(session => ({
...session,
updatedAt: Date.now,
lastReplyMeta: res.data.meta || null, // 把后端返回的 meta 挂上去
messages:,
}))
④ 流式请求中,在收到 done 消息时同步geng新同一字段
if {
sessions.value = sortSessions(
sessions.value.map(item =>
item.id === currentSessionId.value
? {...item,lastReplyMeta:payload.meta||null,updatedAt:Date.now}
: item
)
)
await fetchMemories
}
⑤ UI 渲染:在聊天框上方放置一个小条,实时显示Zui新的元信息。
配合上面的 CSS,这个条形块在视觉上非常轻盈,却Neng让用户“一眼kan穿”背后的技术细节。
四、如何验证功Neng是否生效?
单元测试:使用 pytest 对 /api/chat//api/chat/stream 发起模拟请求,断言返回体中必须包含 "duration_ms" 与 "model".
E2E 检查:打开页面发送一条普通提问,在聊天框上方kan到刚才写好的 meta 条;刷新页面确认数据仍然保存在本地 storage 中。
P99 性Neng监控:将后台日志导入 Grafana,把每次请求的 duration_ms 按模型分层绘图,一眼就Neng发现异常峰值。
SLA 验证:设定阈值,若超过则触发告警邮件或 Slack 通知。
A/B 实验也hen有意思:开启「显示耗时」功Neng的一组用户,对比未开启组的留存率差异。Ru果显著提升,那说明透明度真的Neng带来好感度! 🎉
五、实战经验 & 小贴士
别让计时代码散落在业务逻辑里!🕰️ 推荐抽成装饰器或统一工具函数,这样以后想改单位或加日志,只改一处就行。
流式场景一定要在 finally 块里Zuo一次计时否则异常导致的数据缺失会让分析变得模糊。
Ru果你使用的是 OpenAI 官方 SDK,它Yi经自带 token 用量字段;但别忘了对齐自己的返回结构,以免前端报错。
UI 那块Ke以酌情加入颜色渐变或动画,让「123 ms」不只是冷冰冰的数据,而是一种即时反馈的快感。
记得在生产环境关闭调试日志,否则每秒几百次请求的计时打印会刷满磁盘。
Ru果项目采用多租户或分账号管理,一定要把 provider/model 信息写入审计表,这对合规检查非常重要。
六、——从技术细节到产品价值,一气呵成 🚀把「模型是谁」「用了多久」这类底层数据搬到前端,kan似小事,却Neng极大提升透明度和可观测性。本文从后端计时到前端渲染一步步拆解,并附上完整代码片段,你只需要照着复制粘贴,就Neng让自己的聊天产品瞬间拥有专业级监控视图。Ru果还有其他需求,比如分布式追踪 ID 或者CORS 跨域日志 , 完全Ke以在本篇基础上继续 。
完整代码请kan仓库,仓库地址: star 🌟🌟🌟 谢谢~
©2026 AI 开发者社区 | 保持好奇,持续探索 如有疑问或想合作,请通过 GitHub Issue 留言。作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback