GPT-3 Playground, la IA que puede escribir por ti

Compartir esta publicación

Una introducción a las Inteligencias Artificiales

Cuando se trata de inteligencia artificial, hay dos ideas principales sobre la mesa. Algunos creen que la inteligencia artificial eventualmente superará a la inteligencia humana, mientras que otros creen que la inteligencia artificial siempre estará al servicio de los humanos. Sin embargo, hay una cosa en la que ambas partes pueden estar de acuerdo: cada año avanza más y más rápido.

La inteligencia artificial (IA) aún se encuentra en sus primeras etapas de desarrollo, pero tiene el potencial de revolucionar la forma en que los humanos interactúan con la tecnología.

Una descripción sencilla y general sería que la IA es un proceso de programación de una computadora para que tome decisiones por sí misma. Esto se puede hacer de varias maneras, pero la más común es mediante el uso de algoritmos. Los algoritmos son un conjunto de reglas o instrucciones que se pueden seguir para resolver un problema. En el caso de la IA, los algoritmos se utilizan para enseñarle a la computadora cómo tomar decisiones.

En el pasado, la inteligencia artificial se usaba principalmente para tareas simples como jugar al ajedrez o resolver problemas matemáticos. Sin embargo, la inteligencia artificial ahora se está utilizando para tareas más complejas, como el reconocimiento facial, el procesamiento del lenguaje natural e incluso la conducción autónoma. A medida que la inteligencia artificial continúa evolucionando, no se sabe de qué será capaz en el futuro. Con la rápida expansión de las capacidades de la IA, es importante comprender qué es, cómo funciona y sus posibles implicaciones.

Los beneficios de la IA son enormes. Con la capacidad de tomar sus propias decisiones, la IA tiene el potencial de mejorar la eficiencia de una miríada de industrias y proporcionar oportunidades para todo tipo de personas. En este artículo, hablaremos de la GPT-3 Playground.

¿Qué es la GPT-3 Playground y de dónde viene?

3DgY99bH6RTVmkdkUeVvtLJXJX3rhhWVO9d2wHSOnP7XUyNQKO8hEFss kgzr3aaILy3qesxi9ehVhmQ5gh27nj9Pox16DQDPi1kY hRFJrpts7iahLut MvWeUg1veYW1OT oZzVyPSIpnwLuXdIkUmO MABrYYWElYV8f9AnMiwTpeC8H7JQJbOZiuQ

La GPT-3 fue creada por OpenAI, una empresa pionera en la investigación de la IA con sede en San Francisco. Definen su objetivo como «garantizar que la inteligencia artificial beneficie a toda la humanidad». Su visión para crear inteligencia artificial es clara: un tipo de IA que no se limite a tareas especializadas, sino que realice una amplia variedad de tareas, al igual que los humanos.

Hace unos meses, la empresa OpenAI lanzó para todos los usuarios su nuevo modelo de lenguaje llamado GPT-3. GPT-3 significa Generative Pretrained Transformer 3 y consiste en generar texto a partir de una premisa llamada prompt. De forma simple, podría llamarse un “autocompletado” de gran nivel. Puedes por ejemplo proporcionar dos o tres frases sobre un tema cualquiera y GPT-3 se encargará de escribir el resto. También puedes generar conversaciones y las respuestas estarán basadas en el contexto de las preguntas y respuestas anteriores.

Es importante resaltar que cada respuesta que ofrece GPT-3 es solo una posibilidad, por lo tanto no será la única respuesta posible y, además, si pruebas varias veces la misma premisa, puede ofrecer una respuesta distinta e incluso contradictoria. Se trata pues de un modelo que devuelve respuestas en función de lo que se ha dicho previamente y relacionándolo con todo lo que sabe para obtener la posible respuesta con más sentido. Eso quiere decir que no está obligada a dar una respuesta con datos verdaderos, algo que tenemos que tener en cuenta. Eso no significa que tú no puedas proporcionarle datos sobre algún trabajo que hayas realizado y que hable sobre ello, pero siempre será necesario contrastar la información. Cuanto mejor sea el contexto, mejor serán las respuestas que te va a proporcionar, y viceversa.

El modelo de lenguaje GPT-3 de OpenAI ha sido entrenado previamente para ser lo que es. Su entrenamiento consistió en estudiar una enorme cantidad de información disponible en Internet. GPT-3 fue alimentada con todos los libros públicos, toda la Wikipedia y millones de páginas web y documentos científicos disponibles en Internet. En resumidas cuentas, ha absorbido el conocimiento humano más importante que hemos publicado en la red durante toda nuestra historia.

  Innovación disruptiva: ejemplos

Tras leer esta información y analizarla, el modelo de lenguaje creó conexiones en un modelo de 700 GB ubicado en 48 GPUs de 16 GB cada una de ellas. Para que entendamos la dimensión de esto, el anterior modelo de OpenAI, GPT-2, tenía un peso de 40 GB y analizó 45 millones de páginas web. La diferencia es inmensa ya que, mientras que GPT-2 tenía 1.500 millones de parámetros, GPT-3 tiene 175.000 millones de parámetros.

¿Hacemos una prueba? Le pedí a GPT-3 que se definiera a sí mismo y este fue el resultado:

f9ZctORDMALtXzvC02W3gsucfwO7MH ZQLJEjHpfmanNKsS2DMF47zgboXefuz7dQSJToj cUim9XQR1w2fUz5835Y3uOoAMGLITUbfGwD1HE2QEoo3HAhTCZClaRqDB772ZAyYRX9M7lTIU5aHSNcLZSsGxom639l bf4RZ3akXMALRuzKdKNujjUuBFg

¿Cómo utilizarlo en Playground?

Para poder jugar con GPT-3 y hacer nuestras pruebas, lo único que tendremos que hacer es ir a su web, registrarnos y añadir la típica información personal que solemos usar en cualquier registro. En uno de los apartados te preguntará para qué vas a usar esta IA.Yo para estos ejemplos he seleccionado la opción de uso personal.

Me gustaría señalar que, desde mi experiencia, los resultados han sido mejores en inglés. Eso no quiere decir que en los otros idiomas funcione mal, en español de hecho lo hace muy bien, pero prefiero el resultado que nos proporciona en inglés, por lo que las pruebas y resultados que mostraré a partir de ahora serán en ese idioma.

GPT-3 nos da un regalo al entrar. Una vez que te hayas registrado con tu correo electrónico y número de teléfono, tendrás 18 dólares para gastar totalmente gratis, sin necesidad de introducir un método de pago. Aunque parezca poco, la verdad es que 18 dólares es bastante. Para que os hagáis una idea, yo he estado probando con la IA durante cinco horas y sólo he gastado 1$. Más adelante explicaré los precios para que lo entendamos mejor.

Una vez estemos dentro de la web, tendremos que dirigirnos al apartado Playground. Aquí es donde va a ocurrir toda la magia.

V4P5BN4LW4c6GhCr8yL5xWNDNCqX9pDWVayrW3D31lISISvWsGzl6bL5x7kq XHqf8kQrtbqgrfow3ihgz3M7BcjlOGFgaDiz q0EOPDiiYcA7pzDawN08wh 45V4xilp9aAANJcA5mIEtGPvA mE7N9dC1LusVqFovxfrl7T64V9h20sLKrrXF2t7E Ag

Prompt + Submit

Para empezar, lo que más resalta de la web, es la gran caja de texto. Aquí es dónde podremos empezar a escribir nuestro prompt (recordad, son nuestras peticiones e/o instrucciones) a la IA. Es tan simple cómo escribir algo, una pregunta en este caso, y darle al botón de submit que tenemos abajo para que GPT-3 nos conteste y escriba lo que le hemos pedido.

bc2szfev8vpzd5w3QMAvklJ5ZlnQYTulsGuf74zDnBQBRyti5vuUl5tKH67VfdbFS kTPcYCE

Presets

Los presets son unos ajustes preestablecidos listos para ser usados para diferentes tareas. Lo encontramos arriba a la derecha del cuadro de texto. Si hacemos click nos saldrán unos pocos, pero en “more examples” se abrirá una pantalla nueva dónde tendremos todo el listado disponible. Cuando se elige un ajuste preestablecido, el contenido del área de texto se actualiza con un texto predeterminado. La configuración en la barra lateral derecha también se actualiza. Por ejemplo, si usáramos el preset “Grammar correction”, deberíamos seguir la siguiente estructura para conseguir el mejor resultado.

5z60vRB25w0b2b25I9w2nh anaprQ3HCXvT2BHLrBu 4dm475lPQLQHo P4Fz2Y4cO4ocqvDGTWdDsEuY4KUJZeRkVFvtkttWQW8tzAnOwUlvtYhddLunPY03CUxKPq5xqWDGnGxNK NsFEp4TBBXkZ 0T rQONBZSrb4JuleSX8HaTQr

Modelos

El conjunto de datos masivo que se usa para entrenar GPT-3 es la razón principal por la que es tan poderoso. Sin embargo, no siempre más grande significa mejor. Por esas razones, OpenAI ofrece cuatro modelos principales disponibles. Hay otros, pero ellos mismos nos recomiendan que usemos las versiones más actualizadas de las cuales vamos a hablar ahora. 

Los modelos disponibles se llaman Davinci, Babbage, Curie y Ada. De los cuatro, Davinci es el más grande y capaz, ya que puede realizar cualquier tarea que pueda realizar cualquier otro motor.

Vamos a dar una descripción general de cada modelo y los tipos de tareas que podrían ser más adecuadas para cada uno. Sin embargo, ten en cuenta que aunque es posible que los motores más pequeños no se entrenen con tantos datos, siguen siendo modelos de propósito general y para ciertas tareas son muy viables y más baratos.

  La transición a la era de la criptografía cuántica

Davinci

Cómo hemos mencionado anteriormente, es el modelo más capaz y puede hacer todo lo que cualquier otro modelo puede hacer, a menudo con menos instrucciones. Davinci es capaz de resolver problemas lógicos, determinar causa y efecto, comprender la intención del texto, producir contenido creativo, explicar los motivos de los personajes y manejar tareas de resumen complejas.

Curie

Este modelo intenta equilibrar potencia y velocidad. Puede hacer cualquier cosa que Ada o Babbage puedan hacer, pero también es capaz de manejar tareas de clasificación más complejas y tareas más matizadas como resúmenes, análisis de sentimientos, aplicaciones de chatbot y preguntas y respuestas.

Babbage

Es un poco más capaz que Ada pero no tan eficaz. Puede realizar todas las mismas tareas que Ada, pero también puede manejar tareas de clasificación un poco más complicadas, y es ideal para tareas de búsqueda semántica que clasifican qué tan bien los documentos coinciden con una consulta de búsqueda.

Ada

Finalmente, este suele ser el modelo más rápido y menos costoso. Es mejor para tareas menos matizadas, por ejemplo, analizar texto, reformatear texto y tareas de clasificación más simples. Cuanto más contexto le proporciones a Ada, mejor funcionará.

CTA Software

Engine

Otros parámetros que podemos ajustar para obtener la mejor respuesta a nuestro “prompt” se encuentran debajo del más importante de ellos. Exacto, el modelo. Vamos a explicar algunos de los que parecen más interesantes.

Una de las configuraciones más importantes para controlar la salida del motor de GPT-3 es la Temperature. Esta configuración controla la aleatoriedad del texto generado. Un valor de 0 hace que el motor sea determinista, lo que significa que siempre generará la misma salida para una entrada de texto determinada. Un valor de 1 hace que el motor tome la mayor cantidad de riesgos y use mucha creatividad.

Probablemente notó que, en alguna de las pruebas que ha podido realizar por sí mismo, GPT-3 se detiene en medio de una oración. Para controlar la cantidad máxima de texto que permitiremos generar, puede utilizar la configuración “Maximum length” especificada en tokens. Más adelante explicaremos qué es esto de los tokens.

El argumento “Top P” es una forma alternativa de controlar la aleatoriedad y la creatividad del texto generado por GPT-3, pero en este caso en relación a los tokens (palabras) dentro del rango de probabilidad según dónde lo coloquemos (0.1 sería un 10%). La documentación de OpenAI recomienda que se utilice solo una función de entre Temperature y Top P, de modo que, cuando utilice una de ellas, asegúrese de que la otra esté configurada en 1.

Por otra parte, tenemos dos parámetros para penalizar las respuestas que nos da GPT-3. Una de ellas es la penalización de frecuencia que controla la tendencia del modelo a repetir predicciones. Además, reduce la probabilidad de palabras que ya han sido generadas y depende de cuántas veces ya se ha producido una palabra en la predicción.

Como segunda penalización tenemos la de la presencia. El parámetro de penalización por presencia anima al modelo a hacer predicciones novedosas. La penalización por presencia reduce la probabilidad de una palabra si ya apareció en el texto predicho. A diferencia de la penalización por frecuencia, la penalización por presencia no depende de la frecuencia con la que aparecen las palabras en predicciones pasadas.

Por último, tenemos el parámetro “Best of” que lo que hace es generar varias respuestas a una consulta. Luego, Playground selecciona la mejor y nos la envía. El propio GPT-3 nos advierte que esto generará varias completaciones a nuestro prompt, y eso puede hacer que gastemos más tokens de los que teníamos en mente.

Historial

Para ir terminando esta sección, el tercer icono al lado del botón “Submit”, nos mostrará un historial con todas nuestras peticiones a GPT-3. De esta forma, si no nos acordamos de algún prompt que usamos para obtener una muy buena respuesta, esto nos lo facilita enormemente.

Costes y tokens

Una vez se acaben los 18$ gratis, GPT-3 nos proporciona una forma de seguir usando su plataforma, y no es ningún tipo de suscripción mensual ni nada parecido. El precio va directamente relacionado con el uso que nosotros le queramos dar. Es decir, nos cobrarán por tokens. Es un término usado en inteligencia artificial relacionado con el coste de generar los outputs. Un token puede ser desde una letra a una frase. Por lo que es muy complicado saber exactamente el precio de cada uso que le demos a la IA. Pero dado que suelen ser céntimos, no tendremos más que probarla un poco y enseguida veremos lo que nos cuesta cada cosa.

  Beneficios y tendencias de los datos como servicio ( DaaS )

Aunque OpenAI solo nos muestra una docena de ejemplos de uso de GPT-3 Playground, podemos ver los tokens que se han gastado en cada uno de ellos para tener una mejor idea de cómo funciona.

Estas son las versiones y sus respectivos precios:

J1GlCDDsOZlqufd 5wanO8ikZbsGKsAU7sTxLSfE3dWxdKpxON9ttWNowubItF8x495vboVUFUo2yVj YtH BfyPkhb vauSQNe3v1uP8tu818d3QBvxr7Sr hRLx0yX3DPZzMMRwudY0 CEF9 4We4vGG0T b US4MJ QuSg7cmoZFOZ9WQQj g4V7wNw

Para que nos hagamos una idea de lo que nos podría costar cierta cantidad de palabras o para que veamos un ejemplo de cómo funciona el tema de los tokens, tenemos la siguiente herramienta llamada Tokenizer.

En ella se nos informa que la familia de modelos GPT procesa el texto mediante tokens, que son secuencias comunes de caracteres que se encuentran en el texto. Los modelos comprenden las relaciones estadísticas entre estos tokens, y son elegidos en la producción del siguiente token en una secuencia de estos.

Al final esto es a muy bajo nivel, por lo que vamos a usar su ejemplo y vamos a ver cuánto nos costaría ese mismo ejemplo.

teexelGnlp8wcPPolSZfIQt5U3OcLvOVrjlf1HudI7lobJVKHhIiQY7RYM uolvMeS2tu5CcPFrxHgkGDpilgM3ZPTG5F

El ejemplo que nos proporciona la propia herramienta nos genera 64 tokens que en caracteres son 252. Esto significa que el coste de esta pequeña tarea sería lo que muestro a continuación según el modelo de GPT-3 Playground utilizado:

  • Ada: $0.0000256
  • Babbage: $0.000032
  • Curie: $0.000128
  • Davinci: $0.00128

Es un precio bastante asequible ya que con ello aún no habríamos gastado ni 1 céntimo. Eso nos da la posibilidad de hacer muchísimas pruebas e incluso de desarrollar nuestros propios proyectos, algo de lo que hablaremos en la segunda parte de esta serie de artículos.

Conclusión

Desde mi punto de vista, es una herramienta a la que hay que saber darle un uso correcto. Cómo he mencionado, GPT-3 no tiene por qué darte datos correctos. Eso significa que si quieres utilizarla para realizar un trabajo, responder ciertas preguntas o realizar deberes, por ejemplo, debes darle un buen contexto (prompt) a la IA para que el resultado se acerque realmente a lo que estás buscando.

Algo que puede preocupar a algunas personas es si esto va a cambiar la educación o si van a desaparecer ciertos trabajos que existen hoy en día relacionados con la escritura. En mi humilde opinión, va a ocurrir. Tarde o temprano todos seremos reemplazados por una IA. Este ejemplo es sobre una IA relacionada con la escritura, pero existen de programación, dibujo, audio, etc.

Por otra parte, abre un montón de posibilidades para muchísimos trabajos y proyectos tanto personales como profesionales. Por ejemplo, ¿alguna vez has querido escribir una historia de terror?, pues en el listado de ejemplos donde encontramos el corrector gramatical tenemos uno específicamente para ello.

Con todo esto quiero decir que estamos en una versión de la IA temprana y a este mundillo aún le queda mucho por crecer y ofrecer, pero eso no significa que no sea útil ahora mismo. Solo tenemos que aprender a utilizarlo y entrenarlo para que nos de la mejor respuesta posible. Si te interesa aprender más sobre GPT-3 Playground, estate atento al blog de Apiumhub. Pronto publicare la segunda parte de este artículo.

Author

  • IsaacAlvarez

    I consider myself a proactive, responsible, understandable person who works well in a team. In my work I need challenges and be constantly learning. I want to grow personally and professionally.

    Ver todas las entradas

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Suscríbete a nuestro boletín de noticias

Recibe actualizaciones de los últimos descubrimientos tecnológicos

¿Tienes un proyecto desafiante?

Podemos trabajar juntos

apiumhub software development projects barcelona
Secured By miniOrange