Aquí tienes el código para realizar la configuración y obtener la respuesta utilizando el modelo GPT-3.5 con una temperatura de 0.8 y un máximo de tokens de 1024:
modelo = "gpt-3.5-turbo"
mensaje = [
{"role": "system", "content": "Eres un experto en redacción, resúmenes y creación de títulos."},
{"role": "user", "content": prompt}
]
response = openai.ChatCompletion.create(
model=modelo,
messages=mensaje,
temperature=0.8,
max_tokens=1024
)
respuesta = response["choices"][0]["message"]["content"]
En este código, definimos el modelo que vamos a utilizar como “gpt-3.5-turbo”. Luego, creamos una lista de mensajes donde especificamos el rol del sistema y el contenido del mensaje. El mensaje del usuario es el prompt que hemos construido previamente.
Luego, utilizamos la función openai.ChatCompletion.create()
para enviar la solicitud a la API de OpenAI. Pasamos el modelo, los mensajes, la temperatura y el límite máximo de tokens. La respuesta de la API contiene la respuesta generada por el modelo, y la guardamos en la variable respuesta
extrayendo el contenido del mensaje.
Con esto, obtendrás la respuesta generada por el modelo basada en el prompt y los parámetros de configuración establecidos.
Nota del maestro: Recuerda que este curso es gratuito y no cuenta con soporte. Si tienes problemas o dudas, puedes escribirme en Twitter haciendo clic aquí y esperar a que tenga un tiempo libre para poder contestarte. También puedes considerar tomar el curso profesional en nuestra plataforma de Azul School, que incluye soporte prioritario para todos nuestros cursos y muchos más beneficios. Haz clic aquí para comprar tu membresía anual u obtener más información al respecto.