Publicidad

Publicidad

Publicidad

Publicidad

Push Noticias Caracol
Reciba nuestras notificaciones con lo último de:
Ahora no
Activar

Publicidad

El debate ético detrás del ChatGPT y los riesgos de su uso

El auge de ChatGPT y la inminente carrera por el desarrollo de los chatbots manejados por inteligencias artificiales abre debates éticos entre los especialistas en el campo de la tecnología.

Aunque empresas como Microsoft, Facebook y Google ya habían comenzado con desarrollos importantes, OpenAI, empresa desarrolladora de ChatGPT, logró que en menos de 60 días 100 millones de usuarios utilizaran su plataforma.

La revista TIME, en entrevista con OpenAI, expone que en el 2020 el lanzamiento del modelo de lenguaje GPT-3 se vio envuelto en críticas por parte de la comunidad tecnológica por arrojar información falsa a ciertas preguntas, producir algunos textos racistas u ofensivos, e incluso sugerir que quien respondía era una persona real y no una inteligencia artificial.

Con base en esto, la compañía desarrolladora asegura que el nuevo bot de ChatGPT ha sido entrenado “no solo para ser menos tóxico, sino también más resistente a las personas que intentan jugar con él para producir información dañina o inexacta”.

Samir Estefan, especialista tecnológico, explicó a Caracol Ahora que uno de los riesgos más grandes que se tienen frente al tema es que alguien pueda usar la herramienta con fines nefarios, enfatizando en que, así como sucedió con las redes sociales, las personas están en la capacidad de manipular la inteligencia artificial para transformar el discurso de una manera tan convincente que los límites entre la información verídica y falsa sean desdibujados.

Estefan explica cómo podría funcionar esta manipulación: “Imagínese decenas de personas creando herramientas que creen millones de artículos cargados de mentiras. Por ejemplo, una persona que quiere convencer a todos que el planeta es plano. Entonces, le meten plata a una bodega, ya no de influenciadores, sino a una que le pide a estos chats que genere documentos soportando con diferentes evidencias que la tierra es plana, y luego empiezan a publicar eso por doquier, de tal manera cuando usted busque va a ver que la Tierra es plana. Pero por otro lado, cuando los algoritmos comienzan a nutrirse de la información disponible en internet y se vuelve una bola de nieve”.
Muchos se preguntan quién impondrá los límites. El especialista argumenta que en este momento hay una sentencia en la corte suprema de Estados Unidos que pudiese llegar a tocar algo de la tecnología subyacente, y que en Europa ya se han intentado generar reglamentaciones en cuanto a los usos de la inteligencia artificial en diferentes campos. Sin embargo, no considera que se dé una política mundial para regular el tema, debido a que la mayoría de los países siguen flojos en el tema.

Publicidad

“El impacto aquí puede ser uno que nunca hemos visto. Ya vimos lo que nos pasó con las redes sociales, que es una cosa minúscula al lado de esto. El riesgo que tenemos acá es mucho mayor”, agrega Samir.

  • Publicidad