Lisibonny commited on
Commit
f34c031
1 Parent(s): 19b6be2

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -1
app.py CHANGED
@@ -129,6 +129,11 @@ def main():
129
  df_answer=df
130
  df_answer['answer']=''
131
  for i in range(len(df_answer)):
 
 
 
 
 
132
  text=df_answer.loc[i, "resumen"]
133
  inputs = tokenizer(query, text, return_tensors='tf')
134
  outputs = qa_model(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'])
@@ -139,6 +144,7 @@ def main():
139
  predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
140
  answer=tokenizer.decode(predict_answer_tokens)
141
 
 
142
  if (len(answer)>0):
143
 
144
  #answer_start_scores= tf.math.reduce_sum(answer_start_scores)
@@ -149,7 +155,10 @@ def main():
149
  cantidad_respuestas = cantidad_respuestas + 1
150
  df_answer.loc[i, "answer"] = answer
151
  lista_noticias_respuestas.append(df_answer.loc[i].to_frame().T)
152
-
 
 
 
153
  df_noticias_respuestas=pd.concat(lista_noticias_respuestas)
154
  batch_size = 5
155
  pages = split_frame(df_noticias_respuestas, batch_size)
 
129
  df_answer=df
130
  df_answer['answer']=''
131
  for i in range(len(df_answer)):
132
+
133
+
134
+ progress_text = "Buscando respuestas. Por favor, espere."
135
+ my_bar = st.progress(0, text=progress_text)
136
+
137
  text=df_answer.loc[i, "resumen"]
138
  inputs = tokenizer(query, text, return_tensors='tf')
139
  outputs = qa_model(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask'])
 
144
  predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
145
  answer=tokenizer.decode(predict_answer_tokens)
146
 
147
+
148
  if (len(answer)>0):
149
 
150
  #answer_start_scores= tf.math.reduce_sum(answer_start_scores)
 
155
  cantidad_respuestas = cantidad_respuestas + 1
156
  df_answer.loc[i, "answer"] = answer
157
  lista_noticias_respuestas.append(df_answer.loc[i].to_frame().T)
158
+
159
+ # Barra de progreso
160
+ my_bar.progress(i + 1, text=progress_text)
161
+
162
  df_noticias_respuestas=pd.concat(lista_noticias_respuestas)
163
  batch_size = 5
164
  pages = split_frame(df_noticias_respuestas, batch_size)