Menú Cerrar

¿La inteligencia artificial de Irom man es posible?

OpenAI publicó recientemente en forma de beta la API de su último modelo de lenguaje, GPT-3. Con esta herramienta algunos desarrolladores han comenzado a mostrar de qué es capaz esta plataforma capaz de generar contenido con tan sólo darle órdenes en inglés y de forma comprensible por cualquiera. Por ejemplo, “crea una web con siete botones con los colores del arcoíris” generará exactamente el código HTML de una web con siete botones de diferentes colores.

 

el nuevo modelo de lenguaje que es capaz de programar, diseñar y hasta conversar sobre política.
Puede generar contenido con tan sólo darle órdenes, como hacer sitio web o una aplicación y miles de cosas más.
El entrenamiento de esta tecnología consistió en aprenderse una enorme cantidad de información disponible en Internet, como todos los libros que se hayan escrito, toda la Wikipedia y millones de páginas web y documentos científicos, prácticamente todo el conocimiento humano más importante que esta en la red.
Esto es una verdadera locura, personas le han dado instrucciones como “Plan para convertir Argentina en una potencia mundial en 20 años” y la información que ha arrojado es impresionante, puede crear conversaciones sobre absolutamente todo tipo de temas.

El modelo de lenguaje GPT-3 de OpenAI ha necesitado un entrenamiento previo para ser lo que es. Este entrenamiento consistió en aprenderse una ingente cantidad de información disponible en Internet. OpenAI alimentó a GPT-3 con todos los libros públicos que se hayan escrito y estén disponibles, toda la Wikipedia y millones de páginas web y documentos científicos disponibles en Internet. Esencialmente ha absorbido todo el conocimiento humano más relevante que hemos publicado en la red.

Tras leerse esta información y analizarla el modelo de lenguaje creó conexiones en un modelo de 700 GB ubicado en 48 GPUs de 16 GB cada una de ellas. Para ponerlo en contexto, el año pasado OpenAI publicó GPT-2 con un peso de 40 GB y analizando 45 millones de páginas web. Mientras que GPT-2 tenía 1.500 millones de parámetros, GPT-3 tiene 175.000 millones de parámetros.

¡¡¡Esto puede crear cosas en el mundo digital a partir de lenguaje natural.!!!
Esto ha llegado para cambiar el mundo que conocíamos, el GPT-3 puede hacer desaparecer algunas profesiones.

 

 

Fuente: Xakata
Compartir!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *