关于challenge:基于知识图谱的电影知识问答系统训练TFIDF-向量算法和朴素贝叶斯分类器在-Neo4j-中查询

48次阅读

共计 3911 个字符,预计需要花费 10 分钟才能阅读完成。

基于常识图谱的电影常识问答零碎:训练 TF-IDF 向量算法和奢侈贝叶斯分类器、在 Neo4j 中查问

1. 我的项目介绍

  • 训练 TF-IDF 向量算法和奢侈贝叶斯分类器,预测用户文本所属的问题类别
  • 应用分词库解析用户文本词性,提取关键词
  • 联合关键词与问题类别,在 Neo4j 中查问问题的答案
  • 通过 Flask 对外提供 RESTful API
  • 前端交互与答案展现

2. 我的项目实操教学

2.1 数据集简介

{
  "introduction_by_movie": [
    "nm 简介",
    "nm 剧情简介",
    "nm 的内容是什么",
    "nm 讲了什么",
    "nm 讲了什么故事",
    "nm 演了什么",
    "nm 的故事梗概是什么",
    "nm 的剧情简介是什么",
    "nm 的内容简介是什么",
    "nm 的剧情介绍是什么",
    "nm 的情节是什么",
    "nm 的次要情节是什么"
  ],
  "rating_by_movie": [
    "nm 的评分是多少",
    "nm 得了多少分",
    "nm 的评分有多少",
    "nm 的评分",
    "nm 得分是多少",
    "nm 的分数是",
    "nm 电影分数是多少",
    "nm 电影评分",
    "nm 评分",
    "nm 的分数是多少",
    "nm 这部电影的评分是多少"
  ],
  "release_date_by_movie": [
    "nm 上映工夫",
    "nm 定档工夫",
    "nm 的上映工夫是什么时候",
    "nm 的首映工夫是什么时候",
    "nm 什么时候上映",
    "nm 什么时候首映",
    "最早什么时候能看到 nm",
    "nm 什么时候在影院上线",
    "什么时候能够在影院看到 nm",
    "nm 什么时候在影院放映",
    "nm 什么时候首播"
  ],
  

2.2 用户词典

Forrest Gump nm
Kill Bill: Vol. 1 nm
英雄 nm
Miami Vice nm
Indiana Jones and the Temple of Doom nm
卧虎藏龙 nm
Pirates of the Caribbean: At World's End nm
Kill Bill: Vol. 2 nm
The Matrix Reloaded nm
The Matrix Revolutions nm
Harry Potter and the Chamber of Secrets nm
Harry Potter and the Prisoner of Azkaban nm
Harry Potter and the Goblet of Fire nm
Harry Potter and the Order of the Phoenix nm
The Last Emperor nm
Harry Potter and the Half-Blood Prince nm
花样年华 nm
2046 nm
Lethal Weapon 4 nm
Hannibal Rising nm
TMNT nm
무사 nm
Anna and the King nm
满城尽带黄金甲 nm

2.3 环境依赖

jieba
neo4j
python-dotenv
scikit-learn
flask
flask-cors
gunicorn

2.4 局部代码展现

import os

from neo4j import GraphDatabase


class Database:
    """
    Neo4j 数据库拜访层。治理数据库连贯的生命周期,并提供查问接口。"""

    def __init__(self):
        uri = os.environ["DATABASE_URI"]
        user = os.environ["DATABASE_USER"]
        password = os.environ["DATABASE_PASSWORD"]

        try:
            self._driver = GraphDatabase.driver(uri, auth=(user, password))
            self._session = self._driver.session()
        except Exception as e:
            raise Exception("数据库连贯失败") from e

    def close(self):
        try:
            self._session.close()
            self._driver.close()
        except Exception as e:
            raise Exception("数据库断开失败") from e

    def find_one(self, query: str, **parameters):
        result = self._session.run(query, parameters).single()
        return result.value() if result else None

    def find_many(self, query: str, **parameters):
        return self._session.run(query, parameters).value()


if __name__ == "__main__":
    import dotenv

    dotenv.load_dotenv()

    database = Database()
    genres = database.find_many(
        """
        MATCH (m:Movie)-[BELONGS_TO]->(g:Genre)
        WHERE m.name = $movie_name
        RETURN g.name
        """,
        movie_name="卧虎藏龙",
    )
    database.close()

    print(genres)
import json
import os

import jieba
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB

TRAIN_DATASET_PATH = os.path.join("data", "train.json")

jieba.setLogLevel("ERROR")


def normalize(sentence: str):
    return " ".join(jieba.cut(sentence))


class BaseClassifier:
    """
    底层分类器。应用 TF-IDF 向量化文本,而后应用奢侈贝叶斯预测标签。"""

    def __init__(self):
        self._vectorizer = TfidfVectorizer()
        self._classifier = MultinomialNB(alpha=0.01)

    def _train(self, x: list, y: list):
        X = self._vectorizer.fit_transform(x).toarray()
        self._classifier.fit(X, y)

    def _predict(self, x: list):
        X = self._vectorizer.transform(x).toarray()
        return self._classifier.predict(X)


class Classifier(BaseClassifier):
    """
    问题分类器。依据问题中呈现的关键词,将问题归于某一已知类别下。"""

    def __init__(self):
        BaseClassifier.__init__(self)
        questions, labels = Classifier._read_train_dataset()
        self._train(questions, labels)

    def classify(self, sentence: str):
        question = normalize(sentence)
        return self._predict([question])[0]

    @staticmethod
    def _read_train_dataset():
        with open(TRAIN_DATASET_PATH, "r", encoding="utf-8") as fr:
            train_dataset: dict[str, list[str]] = json.load(fr)

        questions = []
        labels = []
        for label, sentences in train_dataset.items():
            questions.extend([normalize(sentence) for sentence in sentences])
            labels.extend([label for _ in sentences])

        return questions, labels


if __name__ == "__main__":
    classifier = Classifier()

    while True:
        sentence = input("请输出问题:").strip()
        label = classifier.classify(sentence)
        print(f"问题分类:{label}")

2.5 运行我的项目

backend 目录下增加环境变量文件 .env

# Neo4j 数据库地址
DATABASE_URI=

# Neo4j 用户名
DATABASE_USER=

# Neo4j 明码
DATABASE_PASSWORD=

启动后端服务。

cd backend
gunicorn app:app

frontend 目录下增加环境变量文件 .env

# 后端服务地址
VITE_API_BASE_URL=

启动前端服务。

cd frontend
npm build
npm preview

3. 技术栈

3.1 数据库

Neo4j

3.2 外围 QA 模块

Python
Scikit-learn
Jieba

3.3 后端

Python
Flask
Render

3.4 前端

TypeScript
Preact
Tailwind CSS
pnpm
Vite
ESLint
Prettier

码源链接跳转见文末

码源链接跳转

更多优质内容请关注公号 & 知乎:汀丶人工智能;会提供一些相干的资源和优质文章,收费获取浏览。

本文参加了 SegmentFault 思否写作挑战「摸索编码世界之旅 – 记我的第一份编程工作」,欢送正在浏览的你也退出。

正文完
 0