Update app.py
Browse files
app.py
CHANGED
@@ -33,7 +33,7 @@ def main():
|
|
33 |
df=cargar_articulos()
|
34 |
articulos_indexados = pd.read_csv('articulos_indexados.csv')
|
35 |
articulos_indexados = articulos_indexados.set_index('Unnamed: 0')
|
36 |
-
|
37 |
|
38 |
|
39 |
query = st.text_input(
|
@@ -44,13 +44,15 @@ def main():
|
|
44 |
|
45 |
if ('?' in query):
|
46 |
st.write("Contestando a: ", query)
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
)
|
53 |
-
|
|
|
|
|
54 |
|
55 |
else:
|
56 |
|
|
|
33 |
df=cargar_articulos()
|
34 |
articulos_indexados = pd.read_csv('articulos_indexados.csv')
|
35 |
articulos_indexados = articulos_indexados.set_index('Unnamed: 0')
|
36 |
+
qa_model = load_qa_model()
|
37 |
|
38 |
|
39 |
query = st.text_input(
|
|
|
44 |
|
45 |
if ('?' in query):
|
46 |
st.write("Contestando a: ", query)
|
47 |
+
text='Manuel Romero está colaborando activamente con huggingface/transformers ' +
|
48 |
+
'para traer el poder de las últimas técnicas de procesamiento de lenguaje natural al idioma español'
|
49 |
+
inputs = tokenizer(query, text, return_tensors="tf")
|
50 |
+
outputs = qa_model(**inputs)
|
51 |
+
answer_start_index = int(tf.math.argmax(outputs.start_logits, axis=-1)[0])
|
52 |
+
answer_end_index = int(tf.math.argmax(outputs.end_logits, axis=-1)[0])
|
53 |
+
predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
|
54 |
+
|
55 |
+
st.info(predict_answer_tokens)
|
56 |
|
57 |
else:
|
58 |
|