sábado, julio 27, 2024
27.8 C
Mexico

El auge de la inteligencia artificial en 2023: riesgos y regulaciones

La inteligencia artificial se convirtió en una herramienta ampliamente utilizada por millones de personas en 2023, mientras que los expertos advierten sobre los peligros asociados a su uso.

En el año 2023, la inteligencia artificial se convirtió en una herramienta ampliamente utilizada por millones de personas, sin embargo, los expertos advierten sobre los posibles riesgos que conlleva.

En tan solo un año, la inteligencia artificial (IA) ha dejado de ser algo relacionado con la ciencia ficción para convertirse en una herramienta utilizada por millones de individuos. Sin embargo, los expertos están advirtiendo sobre los riesgos que conlleva y ya se están realizando los primeros intentos para regular su uso a nivel global.

Durante este año, las plataformas de redes sociales han sido inundadas con imágenes y videos que los usuarios han creado utilizando diferentes herramientas de inteligencia artificial generativa, así como capturas de pantalla de "conversaciones" con la inteligencia artificial sobre una amplia variedad de temas.

El origen de esta tecnología se produjo gracias a la gran popularidad del chatbot ChatGPT de OpenAI, que fue lanzado en noviembre de 2022 y en poco tiempo logró captar la atención de millones de usuarios.

En el año 2023, las grandes empresas tecnológicas que han estado explorando la inteligencia artificial durante varios años, se unieron en una competencia para convertirse en la referencia en este campo.

Durante el mes de febrero, Microsoft informó que había invertido 13 mil millones de dólares en OpenAI y que había comenzado a utilizar la tecnología GPT4 en su chatbot, Bing.

La compañía establecida por Bill Gates y Paul Allen está enfocada en convertir esta tecnología en un "asistente" en todas sus programas y aplicaciones.

Además, Google ha dado a conocer su propio chatbot con inteligencia artificial llamado Bard. Además, en diciembre, la compañía presentó un modelo de IA más avanzado llamado Gemini, que tiene la capacidad de aprender de diferentes tipos de datos, como audio, video e imágenes, además del texto.

Incluso Mark Zuckerberg, el creador de Meta y un defensor del metaverso durante muchos años, también se unió a la carrera de la inteligencia artificial.

Meta, la empresa matriz de Facebook, Instagram y WhatsApp, tiene como objetivo formar una alianza de inteligencia artificial (IA) con otras compañías con el fin de promover una IA accesible y gratuita.

Jenalea Howell, una de las organizadoras del congreso The AI Summit New York, comentó que este año ha sido muy educativo en términos de inteligencia artificial en todos los mercados globales. Ha habido un gran interés y pregunta sobre qué es exactamente la IA.

Los usuarios rápidamente notaron que las respuestas proporcionadas por la IA no son siempre precisas y, en ocasiones, pueden tener errores conocidos como "alucinaciones".

Unos abogados se hicieron conocidos por presentar un documento que contenía una serie de casos ficticios creados por ChatGPT.

Las empresas se enfrentan a otro desafío al tener que demostrar que no violaron ninguna ley de derechos de autor al proporcionar información a sus máquinas.

OpenAI y Meta han sido acusados por escritores como George R.R. Martin y Sarah Silverman de apropiarse indebidamente de sus obras.

Además, circulaban en internet imágenes creadas por inteligencia artificial sin ninguna marca de agua, lo cual causó confusión entre los usuarios de la red. Un ejemplo de esto es la imagen hiperrealista del papa Francisco con un abrigo blanco moderno, que fue generada utilizando el programa Midjourney.

Durante este año, tanto el equipo del expresidente Donald Trump como el del candidato Ron DeSantis, ambos compitiendo en las primarias republicanas para las elecciones presidenciales de EE.UU., han utilizado contenido creado por inteligencia artificial.

Peter Lee, quien ocupa el cargo de vicepresidente corporativo de Investigación e Incubaciones en Microsoft, se preocupó al recibir correos electrónicos de médicos que reportaron estar utilizando ChatGPT en sus diagnósticos, apenas días después de su lanzamiento.

Lee expresó a la Agencia EFE que la noticia les generó mucha emoción y preocupación al mismo tiempo. Aunque reconocen que se trata de una tecnología nueva, poderosa y única, consideran necesario establecer regulaciones antes de utilizarla como una herramienta más en el ámbito de la medicina.

En marzo, un grupo de más de mil empresarios e investigadores del ámbito tecnológico enviaron una carta solicitando la suspensión temporal de los sistemas de inteligencia artificial más avanzados, incluyendo el último modelo de OpenAI, conocido como GPT-4.

Después de dos meses, un grupo de expertos, incluyendo a los líderes de Google DeepMind, Anthropic y OpenAI, alertaron sobre el peligro de la inteligencia artificial, comparándolo con el riesgo de pandemias o guerra nuclear y su potencial de provocar la extinción.

En septiembre, Elon Musk, Mark Zuckerberg, Bill Gates, Sundar Pichai (director ejecutivo de Alphabet, la empresa matriz de Google) y Sam Altman (responsable de OpenAI) fueron convocados para comparecer y discutir ante el Senado de Estados Unidos acerca de la regulación de la inteligencia artificial.

Sin embargo, la Unión Europea fue la primera institución en establecer la primera regulación significativa de la inteligencia artificial en el mundo occidental. Después de 36 horas de negociaciones, en diciembre se acordó la ley de inteligencia artificial.

Esta regulación establece si se puede utilizar o no la tecnología, según el nivel de peligro que represente para las personas, y tiene como objetivo promover el crecimiento de la industria europea en comparación con países como China y Estados Unidos.

Según datos proporcionados por la agencia de

Cada minuto

Copyright © 2014-2021 López-Dóriga Digital – Todos los derechos reservados.

Nos puedes seguir

Hot this week

Topics

spot_img

Related Articles

Popular Categories

spot_imgspot_img