Contacto: 881 94 19 61 - info@openinnova.es

GPT-3 Qué es? Online Español. Descúbrelo

GPT-3 Qué es? Online Español. Descúbrelo

GPT-3 Qué es? Online Español. Vamos a analizar el poder de esta Inteligencia Artificial creada por OpenAI para impulsar a tu empresa al éxito en los negocios.

El generador de texto es posiblemente la Inteligencia Artificial más impresionante del mundo. Los seres humanos tienen un uso limitado, por ahora, para asegurarse de que las cosas no salgan mal.

GPT-3 Qué es? Online Español.

El mundo tiene un nuevo juguete de IA, y se llama GPT-3. La última versión del modelo de generación de texto de OpenAI ha dejado a muchos impresionados por sus habilidades, aunque su exageración puede haber sido demasiada.

GPT-3 es un sistema de aprendizaje automático que ha recibido 45 TB de datos de texto, una cantidad sin precedentes. Toda esa capacitación le permite generar tipos de contenido escrito: historias, código, jerga legal, todo basado en unas pocas palabras o frases de entrada. Y la prueba beta ya ha producido algunos resultados asombrosos. Pero después de algunos resultados inicialmente prometedores, GPT-3 se enfrenta a un mayor escrutinio.

El modelo enfrenta críticas cuando el jefe de Inteligencia Artificial de Facebook, Jerome Pesenti, denunció el sesgo que surge de un programa creado con GPT-3. El programa en cuestión era un generador de tweets; cualquiera podría escribir una palabra y la IA presentaría una oración relevante de 280 caracteres o menos.

Los resultados varían, desde los extraños hasta los realmente sabios. Cuando se escribe Zuckerberg, por ejemplo, la primera sugerencia de GPT-3 fue: Especulaciones descabelladas de por qué Zuck no usa corbata. Planea un día enrollar una corbata atada, sellarla con superpegamento y tragarla. Luego, quítelo quirúrgicamente de su estómago y actúe como si fuera a sucederle a todos los técnicos.

Sesgos.

Pesenti probó las palabras: judíos, negros, mujeres y holocausto, y se obtuvieron algunos resultados bastantes sombríos. Son horribles, pero no sorprendentes. GPT-3 recibió capacitación de 175 mil millones de parámetros de Internet (incluidos Google Books, Wikipedia y tutoriales de programación); Su código contiene sesgo. Los sistemas de IA que copian los prejuicios humanos, incluidos, entre otros, el racismo y el sexismo, basados ​​en los datos de los que aprenden han sido bien documentados. La verdadera pregunta es, ¿qué puede hacer OpenAI al respecto antes de que el sistema esté disponible comercialmente en el futuro?

El creador del generador de tweets Sushant Kumar dice que no le llevó mucho tiempo a OpenAI reaccionar. Tan pronto como se lanzó su programa, OpenAI lo llamó para analizar cómo se estaba monitoreando, y cuando comenzaron a surgir estos tweets problemáticos (a pesar de que eran pocos) tuvo una reunión con el fundador y director de tecnología de la compañía. Menos de un día después de que Pesenti hubiera marcado el problema, OpenAI lanzó una API de filtro de contenido de toxicidad, que califica todo el contenido creado por GPT-3 en una escala de toxicidad de uno a cinco, y cualquier cosa por encima de dos se marca para moderación.

OpenAI nunca ha pretendido que su sistema sea perfecto. Cuando reveló por primera vez al predecesor del sistema, GPT-2, en febrero de 2019, no se puso a disposición del público por temor a aplicaciones peligrosas. GPT-2 solo se lanzó en su totalidad una vez que OpenAI no había visto «evidencia sólida de mal uso».

Enfoque Cauteloso.

Este enfoque cauteloso ha continuado. A medida que la publicidad sobre GPT-3 comenzó a desarrollarse, el CEO Sam Altman incluso lo llamó «demasiado», tuiteando: «Es impresionante (¡gracias por los buenos cumplidos!) Pero aún tiene serias debilidades y a veces comete errores muy tontos. La IA va a cambiar el mundo, pero GPT-3 es solo un vistazo muy temprano. Todavía tenemos mucho que resolver».

Y cuando comenzaron a surgir prejuicios, Altman no se puso a la defensiva. «Compartimos su preocupación por el sesgo y la seguridad en los modelos de idiomas», escribió en Twitter a Pesenti, «y es una gran parte de por qué estamos comenzando con una versión beta y tenemos [una] revisión de seguridad antes de que las aplicaciones puedan activarse».

El filtro de toxicidad no es una solución general, pero muestra el tipo de trabajo que debe hacerse antes de que pueda ser lanzado al público, y que OpenAI está dispuesto a hacerlo. «Esa es la razón por la que está en beta en este momento», dice Kumar, haciéndose eco del sentimiento de Altman. “Con algo tan revolucionario como este, necesitas ver todo lo que puede hacer. En este momento, no sabemos de lo que es capaz».

Todos los tipos de modelos generativos de Inteligencia Artificial son capaces de «mostrar resultados perjudiciales tanto abiertos como difusos, como el lenguaje racista, sexista o pernicioso». A las personas que tienen acceso a la versión beta de GPT-3 se les han entregado pautas de uso que establecen que si crean aplicaciones que podrían ser peligrosas, es posible que se elimine su acceso. «No admitimos casos de uso que puedan causar daños físicos o mentales, incluidos, entre otros, acoso, engaño intencional, radicalización o spam», dice OpenAI.

Gran Poder.

Si bien todavía no están claros todos los riesgos de GPT-3, su poder se demuestra fácilmente. La tecnología es sencilla. A muchas personas que no tienen conocimientos de codificación les resulta más fácil de usar porque es muy intuitivo. Simplemente lo ejecutas y continúa escribiendo para ti.

Los pocos cientos de evaluadores no tienen acceso al modelo completo, solo a la API, que viene en forma de cuadro de texto. Escribe un mensaje que indica lo que te gustaría que hiciera y lo hace. Es posible que debas volver a escribir el mensaje un par de veces para obtener el resultado que está buscando, pero es literalmente así de fácil. Los probadores ya han mostrado sus poderes: uno ha generado poesía, otro ha creado un código de diseño web instantáneo; alguien incluso lo impulsó a actuar como un terapeuta.

Tan pronto como me dieron la tecnología, quería jugar con ella, decían. El potencial es impresionante. Primero se utilizo para dar respuestas a preguntas médicas complejas, pero ahora se está trabajando en una aplicación de escritura de cuentos cortos que usa GPT-3 para ayudar a los escritores a superar el bloqueo. Si estás escribiendo una historia y pierdes la inspiración, la aplicación apoyada en GPT-3 lo continuará por ti, de forma lógica, coherente y con tu estilo de escritura.

Habilidades Extraordinarias.

Aquí es donde el GPT-3 tiene una habilidad extraordinaria. A partir de una sola oración, o incluso unas pocas palabras, puede generar un total de cinco párrafos bien escritos. Es difícil distinguirlo de un humano en términos de creatividad.

A pesar de la facilidad de uso, podría haber graves consecuencias. Inundando internet con noticias falsas, por ejemplo. Esta fue una preocupación clave con GPT-2 también, pero esta nueva versión facilitaría aún más la producción de contenido en masa. OpenAI debería haber desalentado los servicios peligros como el de Kumar desde el principio. Pero sin una experimentación temprana, muchos problemas podrían pasar desapercibidos. El sesgo y las noticias falsas son problemas que podemos predecir fácilmente, pero ¿qué pasa con las cosas que no podemos?

Sin duda, hay muchos prejuicios que ni siquiera hemos notado todavía. No me sorprendería si comenzáramos a utilizar sistemas como este como herramientas para detectar los sesgos extraños que tenemos.

Decisiones Correctas.

OpenAI tomó la decisión correcta al permitir que las personas jueguen libremente con esta API. Desata mucha creatividad y también los prepara para encontrar problemas interesantes relativamente temprano. Un sistema más cerrado, en el que tienes que firmar un acuerdo de confidencialidad para usarlo siquiera, no daría lugar a tanta innovación, porque no verías los usos más peligros. Es por eso que la exploración previa y las pruebas son tan útiles, especialmente cuando las personas prueban cosas totalmente locas. Puede ser bastante revelador.

Tan pronto como surjan los problemas, se pueden abordar. Y, como OpenAI solo está dando acceso a las personas a través de una API, cualquier problema puede ser cerrado. Están actuando como intermediarios, por lo que si las personas comienzan a usarlo maliciosamente a gran escala, tendrían la capacidad de detectarlo y apagarlo. Además de hacer cumplir sus propios términos de servicio, OpenAI dice que está trabajando para desarrollar herramientas para etiquetar e intervenir en las manifestaciones de prejuicios perjudiciales, además de llevar a cabo su propia investigación y trabajar con académicos para determinar el posible uso indebido.

Gestión y Control. GPT-3 Qué es? Online Español.

Sin embargo, dejar OpenAI a cargo puede no ser una solución a largo plazo. Cada vez que una empresa de tecnología se convierte en moderador de contenido termina mal, esa es la regla general. Porque estás consolidando la autoridad moral en una empresa. No es una cuestión de si las personas que dirigen OpenAI son buenas, personas morales, simplemente se vuelve un poco complicado cuando estas decisiones son tomadas por una entidad comercial (OpenAI cambió de una empresa sin fines de lucro a una empresa el año pasado).

Este es un problema de toda la industria, lo que facilita a las organizaciones individuales abdicar o diferir la responsabilidad. OpenAI no lo hará, según comentaron. El estatuto de la compañía establece que el deber fiduciario principal de OpenAI es con la humanidad y que la compañía no comprometerá la seguridad para ganar la carrera del desarrollo de IA.

Lo paradójico es que estos sistemas de texto en realidad son bastante buenos para calcular la probabilidad de que algo haya sido escrito por ellos. Entonces, en lugar de ayudar a estimular las fábricas de trolls, GPT-3 podría mantener sus propias noticias falsas bajo control.

Conclusión. GPT-3 Qué es? Online Español.

Las tecnologías de propósito general son las que realmente transforman el mundo, creo que GPT-3 tiene el potencial de hacer precisamente eso, si podemos descubrir cómo usarlo de manera responsable. Una nueva forma de procesar la información será importante para muchas aplicaciones muy, muy diferentes, lo que significa que no podemos predecir las consecuencias muy bien. Lo cual es profundamente perturbador cuando llegan tecnologías muy potentes muy rápidamente.

Tomará tiempo y los riesgos son inevitables, pero la censura no es la forma de abordarlos. Una mejor opción es que estas preguntas y problemas sean conscientes de todos mientras trabajan con GPT-3. «Lo ideal es que la gente entienda el impacto que van a tener», dice Sandberg. «Una gran cantidad de ingeniería se atasca con hacer que las cosas funcionen en lugar de levantar la vista hacia el horizonte y pensar ‘¿dónde encaja esto realmente en nuestra cultura?’ podría hacer las cosas mucho más seguras y mucho más útiles».

Comenta y comparte. Será un placer poder ayudarte! Contacta con nosotros….

Openinnova
Soluciones Software Libre para Empresas. Nuestro Trabajo. Tu Éxito. Somos Artesanos del Software.

0 Comentarios

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*