riabayonaor commited on
Commit
51e4c2b
1 Parent(s): eea19a3

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +14 -14
app.py CHANGED
@@ -2,14 +2,16 @@ import streamlit as st
2
  import requests
3
  from PIL import Image
4
  from io import BytesIO
5
- from transformers import AutoTokenizer, AutoModelForCausalLM
 
6
 
7
- # Configuración de la API
8
- API_URL = "https://api-inference.huggingface.co/models/riabayonaor/modelo_prediccion_enfermedades_pepinos"
 
 
9
 
10
- # Cargar el modelo y el tokenizador de BLOOM
11
- tokenizer = AutoTokenizer.from_pretrained("bigscience/bloom")
12
- model = AutoModelForCausalLM.from_pretrained("bigscience/bloom")
13
 
14
  def query(image_bytes):
15
  response = requests.post(API_URL, data=image_bytes)
@@ -18,11 +20,9 @@ def query(image_bytes):
18
  return None
19
  return response.json()
20
 
21
- def bloom_query(prompt):
22
- inputs = tokenizer(prompt, return_tensors="pt")
23
- outputs = model.generate(inputs["input_ids"], max_length=500, num_return_sequences=1)
24
- response = tokenizer.decode(outputs[0], skip_special_tokens=True)
25
- return response
26
 
27
  def main():
28
  st.set_page_config(page_title="Predicción de Enfermedades en Pepinos")
@@ -51,11 +51,11 @@ def main():
51
  class_label = top_prediction['label']
52
  st.write(f"Predicción principal: {class_label} con confianza {top_prediction['score']:.2f}")
53
 
54
- # Usar la etiqueta principal para el modelo BLOOM
55
  prompt = f"Esta enfermedad es {class_label}. Explica qué es y sugiere posibles insecticidas o soluciones en español."
56
 
57
- # Llamar al modelo BLOOM
58
- explanation = bloom_query(prompt)
59
 
60
  st.write(f"Esta enfermedad es {class_label}:")
61
  st.write(explanation)
 
2
  import requests
3
  from PIL import Image
4
  from io import BytesIO
5
+ import os
6
+ import google.generativeai as genai
7
 
8
+ # Obtener la clave API de las variables de entorno
9
+ gemini_api_key = os.getenv("GEMINI_API_KEY")
10
+ genai.configure(api_key=gemini_api_key)
11
+ model = genai.GenerativeModel('gemini-pro')
12
 
13
+ # Configuración de la API de predicción de enfermedades
14
+ API_URL = "https://api-inference.huggingface.co/models/riabayonaor/modelo_prediccion_enfermedades_pepinos"
 
15
 
16
  def query(image_bytes):
17
  response = requests.post(API_URL, data=image_bytes)
 
20
  return None
21
  return response.json()
22
 
23
+ def gemini_query(prompt):
24
+ response = model.generate_content(prompt)
25
+ return response.text
 
 
26
 
27
  def main():
28
  st.set_page_config(page_title="Predicción de Enfermedades en Pepinos")
 
51
  class_label = top_prediction['label']
52
  st.write(f"Predicción principal: {class_label} con confianza {top_prediction['score']:.2f}")
53
 
54
+ # Usar la etiqueta principal para el modelo Gemini
55
  prompt = f"Esta enfermedad es {class_label}. Explica qué es y sugiere posibles insecticidas o soluciones en español."
56
 
57
+ # Llamar al modelo Gemini
58
+ explanation = gemini_query(prompt)
59
 
60
  st.write(f"Esta enfermedad es {class_label}:")
61
  st.write(explanation)