电报
此笔记本展示了如何使用 Telegram 聊天加载器。该类有助于将导出的 Telegram 对话映射为 LangChain 聊天消息。
该过程分为三个步骤:
- 通过从 Telegram 应用复制聊天记录并将其粘贴到本地计算机的文件中,导出聊天 .txt 文件
- 创建
TelegramChatLoader,并将文件路径指向 JSON 文件或包含 JSON 文件的目录 - 调用
loader.load()(或loader.lazy_load())以执行转换。可选择使用merge_chat_runs将同一发送者的连续消息合并,和/或使用map_ai_messages将指定发送者的消息转换为 \"AIMessage\" 类。
1. 创建消息转储
目前(2023/08/23)此加载器最适用于以从Telegram 桌面应用程序导出的聊天记录格式生成的 JSON 文件。
重要提示: 有些 Telegram 的精简版本,例如 \"Telegram for MacOS\",缺少导出功能。请确保您使用正确的应用程序来导出文件。
要进行导出:
- 下载并打开 Telegram 桌面版
- 选择一个对话
- 导航到会话设置(目前位于右上角的三个点)
- 点击“导出聊天记录”
- 取消选择照片和其他媒体。选择“机器可读的JSON”格式以导出。
下面是一个示例:
%%writefile telegram_conversation.json
{
"name": "Jiminy",
"type": "personal_chat",
"id": 5965280513,
"messages": [
{
"id": 1,
"type": "message",
"date": "2023-08-23T13:11:23",
"date_unixtime": "1692821483",
"from": "Jiminy Cricket",
"from_id": "user123450513",
"text": "You better trust your conscience",
"text_entities": [
{
"type": "plain",
"text": "You better trust your conscience"
}
]
},
{
"id": 2,
"type": "message",
"date": "2023-08-23T13:13:20",
"date_unixtime": "1692821600",
"from": "Batman & Robin",
"from_id": "user6565661032",
"text": "What did you just say?",
"text_entities": [
{
"type": "plain",
"text": "What did you just say?"
}
]
}
]
}
Overwriting telegram_conversation.json
2. 创建聊天加载器
所需的一切只是文件路径。您可以选择性地指定映射到AI消息的用户名,以及配置是否合并消息记录。
from langchain_community.chat_loaders.telegram import TelegramChatLoader
API 参考:TelegramChatLoader
loader = TelegramChatLoader(
path="./telegram_conversation.json",
)
3. 加载消息
load()(或 lazy_load)方法返回一个“聊天会话”列表,目前每个会话仅包含已加载对话中的消息列表。
from typing import List
from langchain_community.chat_loaders.utils import (
map_ai_messages,
merge_chat_runs,
)
from langchain_core.chat_sessions import ChatSession
raw_messages = loader.lazy_load()
# Merge consecutive messages from the same sender into a single message
merged_messages = merge_chat_runs(raw_messages)
# Convert messages from "Jiminy Cricket" to AI messages
messages: List[ChatSession] = list(
map_ai_messages(merged_messages, sender="Jiminy Cricket")
)
下一步
然后你可以根据需要使用这些消息,例如微调模型、选择少量示例,或直接预测下一条消息
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
for chunk in llm.stream(messages[0]["messages"]):
print(chunk.content, end="", flush=True)
API 参考:ChatOpenAI
I said, "You better trust your conscience."