RimixRadio, Noticias para latinos
Tecnología

ChatGPT: Las polémicas del chat que está de moda en el mundo

ChatGPT superó el millón de usuario en la primera semana de haber sido lanzada, en noviembre del año pasado. Sigue haciendo conversar a expertos y no expertos de todo el mundo. Foto: Freepik.

ChatGPT es una inteligencia artificial, un modelo de lenguaje capaz de generar texto y responder preguntas. Puso a todos, incluso a los no expertos, a conversar de tecnología y del futuro.

TOMADO DE: elcolombiano.com

El encantamiento con el ChatGPT es colectivo desde noviembre pasado, cuando la compañía OpenAI lo presentó al público: claro, puede hacer incluso un cuento al estilo de García Márquez sobre la luna: La luna llena, en el cielo, como un sueño de plata. Un hombre mira fijo, enamorado de su belleza eterna.

Se trata de una Inteligencia Artificial basada en el software GPT-3.5 de esa empresa (ya hubo un GPT-3 y un GPT-2), que resuelve preguntas y tareas diversas y responde como si lo hiciera un humano. Puede escribir artículos al estilo que se le pida, dar ideas para celebrar el cumpleaños de un niño de 10 años y revisar qué le falta al código de un programador. Wow, parece dejar con la boca abierta a más de uno.

Sin embargo, hay que tener cuidado, por las muchas limitaciones: para ChatGPT, por ejemplo, el presidente de Colombia todavía es Iván Duque, porque su fecha de corte de conocimiento fue 2021. No tiene idea de lo que pasó después.

Él mismo se define como “un modelo de lenguaje desarrollado por OpenAI. Se entrena en grandes cantidades de texto de la web y es capaz de generar texto de manera autónoma”. De ahí que esté en un aprendizaje constante, y eso hace, explica la profesora Paola Hincapié, directora de contenidos de Agencia El Grifo, que ahora tiene acceso gratuito, porque necesita aprender mucho todavía. La técnica que utiliza se llama entrenamiento por transferencia, lo que significa que aprende con grandes cantidades de texto para generar otros de manera similar. Además de muchas personas simulando conversaciones. Antes de lanzarlo hubo quienes le enseñaron, y no tenían (ni tienen) tantas limitaciones como las del público.

En este momento, justamente, está en fase de pruebas, y con eso OpenAI ha sido claro y las limitaciones se explican desde que se abre: “Puede generar información incorrecta ocasionalmente y producir instrucciones dañinas o contenido viciado”. Ya hay una versión de pago, pero no para todos: hay lista de espera.

El profesor Pablo Haya, especializado en IA y procesamiento de lenguaje, le explicó a la Agencia Sinc, que junta palabras, pero no entiende el conocimiento que genera. No es inteligente: “Solo sabe completar frases. Lo hace muy bien porque ha cogido una cantidad ingente de textos extraídos de internet”. Lo que sorprende, dice, es que ha conseguido imitar muy bien el lenguaje humano, por lo menos desde lo gramatical: puede pasar desapercibido que lo hizo la máquina.

Lea más: Así lucirían algunos equipos del fútbol colombiano si fueran villanos según la Inteligencia Artificial

Ese es un punto importante, que explica el profesor: la inteligencia implica ser consciente, y hay que sumar que los humanos son sintientes. “Sentirse alegre es el final de un proceso que se expresa a través del lenguaje y tú lo entiendes porque sientes y eres consciente. Ahora mismo estamos muy lejos de alcanzar una inteligencia consciente. La máquina solo emula el lenguaje humano”.

Es importante desmitificar, por ejemplo, que les vaya a quitar el trabajo a periodistas o a escritores (no en el presente), dice Hincapié, porque si bien puede generar un texto con unas características, no interpreta la información, lo escribirá con lo que sabe, y no podrá tener un estilo, ir más allá. Incluso con las mismas instrucciones terminará produciendo un texto similar: a preguntas y tareas similares responde casi igual.

Le falta el criterio y la mirada estratégica, la interpretación y el manejo del concepto del autor. Y puede copiar. Con la producción vienen los problemas y los debates de derechos de autor: toma la información de todas partes sin verificar si proviene de una fuente confiable ni darles crédito a los autores originales.

Para la profesora será importante no para hacerle el trabajo a alguien, sino para facilitar el tiempo de ejecución. Haya señala que automatizará tareas, y eso ayudará a que alguien pueda hacer otras mejor o ampliar el campo profesional. Da un ejemplo: “Si tu único trabajo es redactar el horóscopo, pues date por despedido”. Aunque la automatización sí puede generar menos plazas para algunas profesiones: los cajeros de un restaurante como McDonald’s reemplazados por kioskos de autoatención. Y cuántos cajeros electrónicos reemplazaron a un cajero humano hace tiempo ya.

Mire la respuesta de la IA: “En lugar de reemplazar a los humanos, se espera que la IA trabaje junto con los humanos para mejorar la eficiencia y eficacia de las tareas. Por ejemplo, en lugar de reemplazar a los médicos, se espera que la IA los ayude a diagnosticar enfermedades más rápida y precisamente, permitiendo que se enfoquen en la atención y el cuidado del paciente”.

Ahora bien, el que está de moda es el chat, pero hay más modelos rondando, como Dall-E, al que se le puede dar instrucciones para generar una ilustración con las características que le interesen: una gala de poesía en marte con Gabriel García Márquez, en estilo pop art. Y la IA jalonará todo lo que sabe, incluyendo otros artistas, para generarla.

Le puede interesar: 12 trucos tecnológicos para poner en práctica en el 2023

Lo importante será aprender a dar bien las instrucciones, lo más precisas posibles, para que dé mejores resultados. Ahí están los retos para el sistema educativo, porque algún estudiante preferirá (y ya pasó) que el ChatGPT le haga el ensayo. Estará la pericia del profesor para identificarlo (además ya están saliendo aplicaciones para descubrir si lo escribió un humano o la IA) o para llevarlo a clase como una herramienta. Bueno, la máquina no enseña valores ni experiencia ni distintas visiones. Un profesor no solo repite.

Por ahora, el chatGPT es casi un juego para preguntarle muchas cosas, mientras aprende, y es una puerta que se abre. Solo OpenAI tiene planes de presentar más lanzamientos este año.

Sígale preguntando, y échele un ojito que puede improvisar o decirle que es cierto algo que aprendió, pero no lo es, y no lo reconocerá: lo del presidente de Colombia, por ejemplo, que ya cambió. Además le queda difícil contradecirlo: alguien le dijo que se había equivocado, que 2+2 no era 4 sino 5, y se disculpó. Tampoco puede cocinar o repararle el bombillo que se le dañó, aunque sí darle una receta o un consejo, y también se echará flores:

—Recomiéndame un final

—En conclusión, ChatGPT es un modelo de lenguaje de vanguardia que ha demostrado ser una herramienta valiosa en una variedad de campos. Con su capacidad para generar respuestas coherentes y coherentes en una variedad de temas, ChatGPT ha revolucionado la forma en que interactuamos con la tecnología de lenguaje. A medida que el modelo continúa evolucionando, es emocionante imaginar las posibles aplicaciones y el impacto que tendrá en el futuro.

Ejemplos que se han dado estos días, entre polémicas y aciertos

 

1. Aprobó un examen MBA con alta calificación

Ocurrió en Estados Unidos luego de que el profesor de la Escuela de Negocios de Wharton Christian Terwiesch pusiera a prueba esta inteligencia artificial. “La puntuación del bot muestra una notable capacidad para automatizar algunas de las habilidades de los trabajadores en general y específicamente en aquellos puestos ocupan los graduados de MBA, incluidos analistas, gerentes y consultores”, dijo el docente. Las preguntas del examen se le plantearon tal como se usan en un entorno de examen final y luego se calificaron. “Hizo un trabajo increíble en la gestión de operaciones básicas y las preguntas de análisis de procesos, incluidas aquellas que se basan en estudios de casos. No solo las respuestas son correctas, pero las explicaciones son excelentes”. Aunque aprobó la prueba (una puntuación entre B- y B, es decir, entre un 80 % y un 87 % de aciertos), Terwiesch señaló que Chat GPT-3 cometió errores en cálculos matemáticos relativamente sencillos para un alumno de sexto grado de Matemáticas.

2. Ryan Reynolds
la utilizó para una campaña

El reconocido actor canadiense acudió a esta tecnología para crear el texto publicitario de una de las empresas de las que es accionista, Mint Mobile, una compañía de telefonía móvil de bajo costo. El experimento lo compartió Reynolds en un video que compartió en su canal de YouTube. En la grabación explicó que lo que le solicitó al software fue crear un guion a partir de unos requerimientos básicos: un chiste, una grosería y la información de que la promoción navideña de Mint Mobile todavía estaba vigente en comparación con las otras operadoras. El resultado, en palabras del propio Ryan Reynolds, fue “misterioso” y “ligeramente terrorífico”, pero también “convincente”. Parte del guion es este: “Lo primero de todo déjame decirte que Mint Mobile es una mierda, pero hay algo más, y es que todas las compañías móviles han terminado sus promociones, pero no Mint Mobile, seguimos ahí, no nos hemos ido”.

3. Fue prohibido en Estados Unidos y Francia

En las últimas semanas el acceso a ChatGPT fue prohibido en las escuelas públicas de Nueva York, Estados Unidos, para evitar su posible uso a través de tablets y celulares de las propias escuelas en las aulas, tras considerar que se puede convertir en una herramienta de “ayuda” en los exámenes y ser capaz de redactar textos en forma de ensayo. Una decisión similar se tomó en Francia donde el Instituto de Estudios Políticos de París, conocido como Sciences Po, prohibió a los estudiantes usar este tipo de tecnologías: “Está estrictamente prohibido para la producción de trabajos escritos u orales (…) solo está permitido para uso pedagógico y organizado por un profesor”. Quienes infrinjan esta regla podrán ser sancionados, “incluso con la expulsión de la institución o de la enseñanza superior”, precisa el mensaje enviado a la comunidad educativa a través de un email.

4. Escribió un libro en 72 horas

Ammaar Reshi, quien en Twitter se identifica como @ammaar y es gerente de diseño de productos, contó su experiencia a través de un hilo bastante detallado. “Pasé el fin de semana jugando con ChatGPT, MidJourney (IA para crear ilustraciones) y otras herramientas de IA y al combinarlas, ¡publiqué un libro para niños coescrito e ilustrado por IA!”, escribió. La solicitud que le hizo Reshi a ChatGPT fue que le mostrara un cuento que le diera una idea a los niños sobre la magia de la IA. El resultado después de 72 horas que duró el proceso fue un cuento titulado ‘Alice and Sparkle’ que cuenta la historia de una niña llamada Alice que quiere aprender sobre el mundo de la tecnología y su amigo robot, Sparkle. “Era como tener un compañero de lluvia de ideas constante”, agregó Ammaar.

 

5. BuzzFeed la usará para crear contenidos

La popularidad de ChatGPT y la agilidad para cumplir ciertas tareas cuestiona los cambios que podrían tener varias profesiones, incluidas el periodismo y la generación de contenidos en los medios de comunicación. Pues bien, uno de los primeros medios que dará el salto será la empresa estadounidense BuzzFeed enfocada en contenidos virales. En un comunicado interno el presidente ejecutivo Jonah Peretti dijo que usarán esta inteligencia artificial de OpenAI para mejorar sus cuestionarios (quiz) y personalizar algunos contenidos. “La IA abre una nueva era de creatividad, donde los humanos creativos como nosotros desempeñamos un papel clave al proporcionar ideas, moneda cultural, indicaciones inspiradas, IP y formatos que cobran vida utilizando las tecnologías más nuevas”.

CONTEXTO DE LA NOTICIA

 

¿Qué es ChatGPT?

“ChatGPT es un modelo de lenguaje capacitado en un gran cantidad de texto, pero no tiene conocimiento o habilidades fuera de lo que se le ha enseñado. Por lo tanto, no puede responder preguntas que requieran información o habilidades que no se encuentran en su base de datos de entrenamiento. También puede tener dificultades para responder preguntas muy específicas o preguntas que requieren una comprensión profunda del contexto. Si tiene alguna pregunta específica, por favor házmela saber y trataré de responderla lo mejor posible”.

 

¿Cuáles son tus limitaciones?

“ChatGPT es un modelo de lenguaje altamente avanzado, pero como con cualquier tecnología, tiene algunas limitaciones y desventajas. Algunas de las desventajas de ChatGPT incluyen:

-Bias: ChatGPT ha sido entrenado con un gran conjunto de datos, y como resultado, puede replicar los prejuicios y las desigualdades presentes en esos datos. Esto puede llevar a respuestas poco precisas o inapropiadas en algunos casos.

-Falta de comprensión: Aunque ChatGPT es capaz de generar respuestas coherentes, todavía no tiene una comprensión completa del significado detrás de las palabras y las frases.

Limitaciones en el contexto: Aunque ChatGPT puede manejar una variedad de temas, puede tener dificultades para entender y responder a preguntas complejas o en contextos específicos.

-Problemas éticos: Algunas personas han expresado preocupaciones sobre el uso indebido o malintencionado de modelos como ChatGPT, como la creación de contenido falso o engañoso”.

 

¿Puedes reemplazar a un periodista?

“ChatGPT es un modelo de lenguaje automatizado que ha sido entrenado con un gran conjunto de texto, incluyendo noticias y artículos periodísticos. Por lo tanto, es capaz de generar texto que se parece a un artículo periodístico. Sin embargo, hay muchas habilidades y conocimientos que un periodista profesional tiene que ChatGPT no tiene, como:

 

La capacidad de investigar y verificar información antes de publicarla.

La habilidad de entrevistar a fuentes y obtener una variedad de puntos de vista.

La capacidad de analizar y contextualizar la información para proporcionar una comprensión más profunda de un tema.

La habilidad de escribir de manera precisa, clara y objetiva.

La capacidad de aplicar ética periodística.

Por lo tanto, aunque ChatGPT puede generar texto que se parece a un artículo periodístico, no puede reemplazar completamente a un periodista profesional debido a las habilidades y conocimientos que se mencionaron anteriormente”.

 

¿Qué no puedes responder?

“Como modelo de lenguaje, soy capaz de responder a una amplia variedad de preguntas. Sin embargo, hay algunas cosas que no puedo hacer, como:

 

1. Acceder a información privada o confidencial sobre individuos o empresas.

 

2. Ofrecer consejos legales o financieros sin la supervisión de un profesional calificado.

 

3. Proporcionar información que esté desactualizada o no sea precisa.

 

4. Realizar tareas que requieren capacidades físicas, como cocinar o limpiar.

 

5. Tomar decisiones por ti o tomar acción en tu nombre.

 

6. Predecir el futuro con precisión.

 

7. Crear contenido original, sólo puedo responder a preguntas basadas en los datos con los que fui entrenado.

 

8. Preguntas que requieren una comprensión completa del contexto o las intenciones detrás de una pregunta o una conversación.

 

Es importante tener en cuenta que como modelo de lenguaje automatizado, mi conocimiento esta basado en los datos que se me han dado para ser entrenado, y mi capacidad para responder preguntas está limitada por esos datos”.

 

¿Puedes escribir un primer párrafo de un libro sobre el padre al estilo de Paul Auster?

“Claro, aquí te dejo un ejemplo de un primer párrafo de un libro sobre el padre, escrito en el estilo de Paul Auster:

‘El padre se había ido y yo me quedé solo, con un vacío que no podía llenar. Era como si una parte de mí se hubiera desvanecido con él, como si hubiera perdido una parte esencial de mi ser. No podía entender cómo alguien que había sido tan presente en mi vida, tan lleno de vida y de personalidad, pudiera desaparecer tan abruptamente. Me preguntaba constantemente qué habría hecho diferente, qué podría haber dicho o hecho para retenerlo a mi lado, pero las respuestas se me escapaban, como si se hubieran evaporado junto con él’”.

 

Por Ana Maria Mesa Elneser. Abogada y doctora en Derecho Procesal Contemporáneo. Fundadora de Law Tic Grupo Jurídico

¿Cómo se encuentran comprometidos los derechos legales y constitucionales de la aplicación ChatGPT basada en tecnología IA? Cuando hablamos de la inteligencia artificial (IA) como mecanismo de producción intelectual para aspectos personales, profesionales o de otra índole en el fondo, el texto, imagen o video producido por la IA no se considera derivada de la creación intelectual de la persona natural que se apropia del texto producido como si fuese de su autoría, toda vez que el texto producido por la IA realmente es un producto derivado de la función que tiene el algoritmo.

Sin embargo, ello permite reconocer otro escenario de discusión como es la propiedad intelectual en la categoría de derechos de autor para un algoritmo IA como productora de un texto, imagen o video, debate actual en el cual no existe una conclusión universal acabada, por el contrario, estamos en la era de la reflexión sobre este escenario que deja a su vez muchos interrogantes sobre las funcionales que cada día se innovan en este tipo de plataformas.

Respecto a estos dos escenarios es válido concluir que la producción intelectual con el uso de herramientas IA implica reconocer que los textos producidos a través de ella no se convierten en autoría de la persona que la usa, por tanto, su capacidad intelectual queda supeditada solo a la edición y/o reescritura del texto, sobre los que sí sería posible reconocer derechos de autor sobre el escrito como una especie de coautoría compartida con la IA.

Respecto de la segunda hipótesis planteada, esto es si la IA tiene derechos de autor reconocidos. Es vital entender que las plataformas de IA como lo es ChatGPT se encuentran creadas por personas naturales que su funcionalidad conlleva la existencia de una base de datos organizada capaz de producir textos coherentes y aprender sobre las consultas que le son formuladas por los usuarios finales.

Vale la pena preguntarse, ¿qué desafíos legales conlleva el uso de estas plataformas? Para dar respuesta a ello debe partirse desde diferentes puntos de vista, es decir, si se parte de los derechos de autor el texto producido por la IA es de la IA. En el caso en que se alegue ser de un autor diferente, podríamos estar frente a una violación de derechos de autor, salvo que haya sido reescrito y solo servido de guía para su propio texto como lo dispone la Ley 23 de 1982 art. 1 y 4, modificada por la Ley 1450 de 2011 en su artículo 28 al 30 y la Ley 1915 de 2018 art. 3.

Si fuera desde un punto de vista del ámbito penal, el texto, imagen o video producido por la IA no es de propiedad de la persona natural que se apropia de él, sin embargo, en los términos y condiciones de la IA ChatGPT existe una disposición libre y gratis para los usuarios finales de lo que puedan producir en la plataforma, por tanto no habría violación a un bien jurídico tutelado como lo dispone la Ley 599 de 2000 art. 270 a 272, ni delito, ni mucho menos un delincuente para justificar una investigación penal.

Finalmente, la propiedad intelectual de texto producido por IA sin modificación por el usuario final sigue siendo de la plataforma, entendiendo que detrás de ésta existe el verdadero autor, creador del algoritmo y de la base de datos asociada. De ahí que ChatGPT sea un instrumento o canal para producir intelectualmente un texto, imagen o video con dos extremos: por un lado es protagonista el usuario final de ChatGPT; y por el otro, está el copyright de la plataforma ChatGPT que contrario a ello es cuando el usuario final solo lo toma como una guía u orientación (como los que hoy existen llamados formatos o minutas) que al ser editados o reescritos por una persona diferente es precisamente esta acción la que le permite obtener el reconocimiento de su autoría frente al texto.

Related posts

Tres consejos para que no lo suplanten en WhatsApp

admin

Mercedes-Benz vende el coche más caro de la historia

PaisaEstereo

Estas son las 6 nuevas funciones de WhatsApp que podrían llegar en el 2021

PaisaEstereo
WP Radio
WP Radio
OFFLINE LIVE