Magazine Home
Enfrentando las normas
La esquina de la computadora

English
28 de diciembre 2025

por Charles Miller

Al mirar hacia atrás las noticias relacionadas con la tecnología del año 2025, en realidad solo hay un tema que destaca, y ese es el enorme impacto que los chatbots de Inteligencia Artificial (IA) han tenido en la mayor parte de la sociedad. Es posible que exista algún ermitaño viviendo en una cueva en la cima de una montaña sin electricidad ni internet que aún no haya usado un chatbot de IA, pero casi todos los demás en la Tierra han tenido alguna interacción con un chatbot de IA este año, de manera consciente o inconsciente.

En el frente tecnológico, es muy probable que el ritmo de innovaciones en los chatbots de IA en el nuevo año 2026 se acelere aún más, superando la ya vertiginosa velocidad de 2025. Muy por detrás de los avances técnicos quedan importantes preguntas legales y éticas sobre el impacto de esta tecnología en evolución y los llamados a regularla.

El verano pasado, el presidente Trump propuso una moratoria de 10 años a la regulación estatal de la IA, diciendo que los proveedores de chatbots de IA de las grandes tecnológicas, valuados en billones de dólares, como Apple, Amazon, Google, Facebook y Microsoft, no deberían verse obstaculizados por tener que cumplir con aprobaciones regulatorias 50 veces en 50 estados diferentes. Hay algo que decir a favor de la eficiencia de contar con un solo conjunto de regulaciones federales; sin embargo, los monopolistas antes mencionados tienen una larga historia de aplastar la competencia y de "cancelar" a aquellos con quienes no están de acuerdo. Disfrutan de ciertas exenciones antimonopolio y de la inmunidad de la "Sección 230", que ha sido objeto de abuso. Si, al desarrollar IA, estos gigantes tecnológicos se ven obligados a detenerse y escuchar a 50 cuerpos legislativos diferentes en 50 estados distintos, eso podría tener un efecto neto positivo.

Casi todos coinciden en que se necesita algún marco regulatorio, dados los problemas que ya ha demostrado la inteligencia artificial. Las personas deberían contar con protección frente a los daños que la IA puede causar, y con claridad sobre quién debe ser considerado responsable de esos daños. Un problema extremadamente serio es la tendencia de la IA a perpetuar información falsa, al no corregir datos erróneos y al crear contenido potencialmente difamatorio. Esto plantea la pregunta de quién es responsable si se producen daños.

Y luego está la cuestión de la transparencia. En la actualidad, las empresas que desarrollan IA no están legalmente obligadas a ser transparentes sobre cómo se entrenan sus Modelos de Lenguaje de Gran Escala (LLM), ni sobre los datos utilizados en ese entrenamiento. Meta/Facebook ha sido acusada de usar una enorme base de datos de libros pirateados llamada Library Genesis, o LibGen, para entrenar su modelo de IA Llama 3, ignorando así las leyes de derechos de autor. Se sabe muy poco sobre el origen de otros LLM porque toda la industria es bastante reservada respecto a las fuentes de datos utilizadas para crear sus distintas versiones de chatbots de IA. Eso parecería justificar la necesidad de que los desarrolladores enumeren de manera específica qué contenidos han utilizado para entrenar sus modelos.

Otra causa de preocupación es el aparente efecto de mente colmena entre los modelos populares de chatbots de IA. Manny Rayner, de la Universidad del Sur de Australia, realizó un estudio utilizando cinco chatbots de IA populares: Grok (xAI), ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) y Llama (Meta/Facebook). A los chatbots se les pidió evaluar la veracidad o falsedad de diez preguntas deliberadamente estructuradas para ser controvertidas y polarizantes (teología, cambio climático, el presidente Trump, etc.). Lógicamente, esto debería haber producido algunas respuestas diferentes, pero todos los chatbots de IA respondieron con "una convergencia sorprendente". Esto parecería contradecir la descripción hecha por Elon Musk y otros de que Grok, de xAI, sería una IA que "diría la verdad" en lugar de conformarse a las normas de la corrección política.

Así, como Diógenes de Sinope, avanzamos hacia el nuevo año 2026 con la esperanza de poder encontrar la verdad. ¡Les deseamos a ustedes y a los suyos un Feliz Año Nuevo!

**************

Charles Miller es un consultor informático independiente con décadas de experiencia en TI y un tejano con un amor de por vida por México. Las opiniones expresadas son suyas. Puede ponerse en contacto con él al 415-101-8528 o al correo electrónico FAQ8 (at) SMAguru.com.

**************
*****

Por favor contribuya a Lokkal,
Colectivo en línea de SMA:

***

Descubre Lokkal:
Navegue por el muro comunitario de SMA a continuación.
Misión

Wall


Visit SMA's Social Network

Contact / Contactar

Subscribe / Suscribete  
If you receive San Miguel Events newsletter,
then you are already on our mailing list.    
Click ads

Contact / Contactar


copyright 2025