Skip to main content
Open In Colab在 GitHub 上打开

GitHub的

此笔记本展示了如何在 GitHub 上加载给定仓库的议题和拉取请求 (PR)。此外,还展示了如何在 GitHub 上为给定存储库加载 github 文件。我们将以 LangChain Python 仓库为例。

设置访问令牌

要访问 GitHub API,您需要一个 personal access token - 您可以在此处设置您的令牌:https://github.com/settings/tokens?type=beta。您可以将此令牌设置为环境变量GITHUB_PERSONAL_ACCESS_TOKEN它将被自动拉取,或者您可以在初始化时直接将其作为access_tokennamed 参数。

# If you haven't set your access token as an environment variable, pass it in here.
from getpass import getpass

ACCESS_TOKEN = getpass()

加载 Issue 和 PR

from langchain_community.document_loaders import GitHubIssuesLoader
API 参考:GitHubIssuesLoader
loader = GitHubIssuesLoader(
repo="langchain-ai/langchain",
access_token=ACCESS_TOKEN, # delete/comment out this argument if you've set the access token as an env var.
creator="UmerHA",
)

让我们加载 “UmerHA” 创建的所有 Issue 和 PR。

以下是您可以使用的所有过滤器的列表:

  • include_prs
  • 里程碑
  • 受让人
  • 造物主
  • 提到
  • 标签
  • 排序
  • 方向
  • 因为

有关详细信息,请参阅 https://docs.github.com/en/rest/issues/issues?apiVersion=2022-11-28#list-repository-issues

docs = loader.load()
print(docs[0].page_content)
print(docs[0].metadata)

仅加载问题

默认情况下,GitHub API 返回将拉取请求也视为问题。要仅获取 “纯” 问题(即没有拉取请求),请使用include_prs=False

loader = GitHubIssuesLoader(
repo="langchain-ai/langchain",
access_token=ACCESS_TOKEN, # delete/comment out this argument if you've set the access token as an env var.
creator="UmerHA",
include_prs=False,
)
docs = loader.load()
print(docs[0].page_content)
print(docs[0].metadata)

加载 Github 文件内容

对于下面的代码,加载 rpeo 中的所有 markdown 文件langchain-ai/langchain

from langchain_community.document_loaders import GithubFileLoader
API 参考:GithubFileLoader
loader = GithubFileLoader(
repo="langchain-ai/langchain", # the repo name
branch="master", # the branch name
access_token=ACCESS_TOKEN,
github_api_url="https://api.github.com",
file_filter=lambda file_path: file_path.endswith(
".md"
), # load all markdowns files.
)
documents = loader.load()

其中一个文档的示例输出:

document.metadata: 
{
"path": "README.md",
"sha": "82f1c4ea88ecf8d2dfsfx06a700e84be4",
"source": "https://github.com/langchain-ai/langchain/blob/master/README.md"
}
document.content:
mock content