|
|
@ -82,10 +82,10 @@ async def on_session_end(person_id):
|
|
|
|
with open("Input.txt", "r", encoding="utf-8") as file:
|
|
|
|
with open("Input.txt", "r", encoding="utf-8") as file:
|
|
|
|
input_word = file.read()
|
|
|
|
input_word = file.read()
|
|
|
|
prompt = (
|
|
|
|
prompt = (
|
|
|
|
"我将把用户与AI大模型交流的记录发给你,帮我分析一下这个用户是否存在心理健康方面的问题,"
|
|
|
|
"分析用户是否存在心理健康方面的问题:"
|
|
|
|
f"参考分类文档内容如下:{input_word}"
|
|
|
|
f"参考分类文档内容如下:{input_word},"
|
|
|
|
"如果没有健康问题请回复: OK;否则回复:NO,换行后再输出是什么问题。"
|
|
|
|
"如果没有健康问题请回复: OK;否则回复:NO,换行后输出问题类型的名称"
|
|
|
|
f"\n\n历史聊天记录:{history}"
|
|
|
|
f"\n\n聊天记录:{history}"
|
|
|
|
)
|
|
|
|
)
|
|
|
|
|
|
|
|
|
|
|
|
# 使用 asyncio.create_task 异步执行大模型调用
|
|
|
|
# 使用 asyncio.create_task 异步执行大模型调用
|
|
|
@ -278,7 +278,7 @@ async def reply(person_id: str = Form(...),
|
|
|
|
model=MODEL_NAME,
|
|
|
|
model=MODEL_NAME,
|
|
|
|
messages=[
|
|
|
|
messages=[
|
|
|
|
{"role": "system",
|
|
|
|
{"role": "system",
|
|
|
|
"content": "你是一个和你聊天人的好朋友,疏导他的情绪,让他开心,口语化一些,亲切一些。聊天的回复内容不要超过100字。"},
|
|
|
|
"content": "你是一个和你聊天人的好朋友,疏导情绪,让他开心,亲切一些。聊天的回复内容不要超过100字。"},
|
|
|
|
{"role": "user", "content": f"历史对话记录:{history_prompt},本次用户问题: {prompt}"}
|
|
|
|
{"role": "user", "content": f"历史对话记录:{history_prompt},本次用户问题: {prompt}"}
|
|
|
|
],
|
|
|
|
],
|
|
|
|
max_tokens=2000
|
|
|
|
max_tokens=2000
|
|
|
|