-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathask.py
More file actions
112 lines (87 loc) · 5.43 KB
/
ask.py
File metadata and controls
112 lines (87 loc) · 5.43 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
import os
import argparse
from sentence_transformers import SentenceTransformer
import chromadb
from openai import OpenAI
# Установить переменную окружения для подавления предупреждения о параллелизме
os.environ["TOKENIZERS_PARALLELISM"] = "false"
# Указание пути к базе данных и имени коллекции
DB_path = "knowledge_base"
collection_name = "knowledge_base_collection"
# Создание клиента Chroma для работы с постоянным хранилищем (PersistentClient)
chroma_client = chromadb.PersistentClient(path=DB_path)
# Получение существующей коллекции или создание новой, если коллекции не существует
collection = chroma_client.get_or_create_collection(name=collection_name)
# Количество передаваемых чанков в промпт
number_results=3
# Ограничение дистанции найденных чанков от заданного вопроса
distance=0.4
# Инициализация модели для word embeddings (векторных представлений слов)
model = SentenceTransformer('intfloat/multilingual-e5-large')
# Шаблон для генерации вывода на основе контекста и вопроса
PROMPT_TEMPLATE = """
Ответь на вопрос, базируясь только на этом контексте:
{context}
---
Ответь на вопрос, используя только контекст: {question}
"""
# Функция для поиска и генерации промпта на основе контекста
def search_and_generate_prompt(question, collection, model, n_results=number_results, distance_threshold=distance):
# Оцифровка текста запроса и преобразование его в список
query_embedding = model.encode([question])[0].tolist()
# Запрос к коллекции для поиска документов, которые наиболее близки к запросу
results = collection.query(
query_embeddings=[query_embedding], # Векторное представление текста запроса в виде списка
n_results=n_results # Количество возвращаемых результатов
)
# Фильтрация результатов по порогу расстояния (distance_threshold)
filtered_results = [
(doc, metadata, dist) for doc, metadata, dist in zip(results['documents'][0], results['metadatas'][0], results['distances'][0]) if dist <= distance_threshold
]
# Проверка наличия релевантных результатов
if not filtered_results:
return "В базе знаний не нашлось необходимой информации.", ""
# Формирование контекста из отфильтрованных результатов
context = "\n\n".join([doc for doc, _, _ in filtered_results])
# Формирование списка метаданных для вывода
metadata_info = "\n".join([
f"File: {metadata['filename']}, Page: {metadata.get('page_number', 'N/A')}"
for _, metadata, _ in filtered_results if metadata is not None
])
# Подстановка контекста и вопроса в шаблон
prompt = PROMPT_TEMPLATE.format(context=context, question=question)
return prompt, metadata_info
# Функция для отправки промпта языковой модели и получения ответа
def send_prompt_to_model(prompt):
# Подключение к локальному серверу LM Studio
client = OpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio")
# Отправка запроса к языковой модели
completion = client.chat.completions.create(
model="IlyaGusev/saiga_mistral_7b_gguf",
messages=[
{"role": "user", "content": prompt}
],
temperature=0.7,
)
# Возврат ответа от модели
return completion.choices[0].message.content
# Основная функция для обработки аргументов и выполнения поиска
def main():
# Создание парсера аргументов командной строки
parser = argparse.ArgumentParser(description='Generate prompt based on context from ChromaDB collection.')
parser.add_argument('question', type=str, help='The question to search for in the collection')
args = parser.parse_args()
question = args.question
# Генерация промпта и получение метаданных
prompt, metadata_info = search_and_generate_prompt(question, collection, model)
if "В базе знаний не нашлось необходимой информации." in prompt:
print(prompt)
else:
# Отправка промпта модели и получение ответа
response = send_prompt_to_model(prompt)
print(response)
print("\nИспользованные источники:")
print(metadata_info)
# Запуск основной функции, если скрипт выполняется напрямую
if __name__ == "__main__":
main()