WesanCZE commited on
Commit
f43f85c
·
verified ·
1 Parent(s): d75ab39

Create app.py

Browse files
Files changed (1) hide show
  1. app.py +26 -0
app.py ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import gradio as gr
2
+ from llama_cpp import Llama
3
+ from huggingface_hub import hf_hub_download
4
+
5
+ # Automatické stažení modelu z HF中国镜像站 Hub
6
+ # Ujistěte se, že model je veřejně přístupný a jeho repo_id a filename jsou správné.
7
+ model_file = hf_hub_download(repo_id="TheBloke/OpenLLaMA-7B-GGUF", filename="OpenLLaMA-7B.gguf")
8
+
9
+ # Inicializace GGUF modelu pomocí llama-cpp-python
10
+ llm = Llama(model_path=model_file, n_ctx=2048, n_threads=4)
11
+
12
+ def generate_response(prompt):
13
+ # Zavoláme model s daným promptem a vrátíme vygenerovaný text
14
+ output = llm(prompt, max_tokens=150, temperature=0.7)
15
+ return output["choices"][0]["text"]
16
+
17
+ # Vytvoření Gradio rozhraní
18
+ iface = gr.Interface(
19
+ fn=generate_response,
20
+ inputs="text",
21
+ outputs="text",
22
+ title="OpenLLaMA GGUF AI Asistent",
23
+ description="Zadej dotaz v češtině a model se pokusí odpovědět."
24
+ )
25
+
26
+ iface.launch()