Frankenstein: La esquina de la computadora
|
|
English
27 de julio 2025
por Charles Miller
En los últimos meses, se han publicado noticias que informan que una nueva versión experimental de ChatGPT llamada "o1" ha empezado a pensar por sí sola, desobedeciendo las órdenes de apagado, y que estaba fuera del control de sus creadores. No es necesario volver a contar la historia aquí, pero pueden buscar en línea "ChatGPT o1 comportamiento inusual" (sin las comillas) para leer parte de la cobertura periodística o ver algunos vídeos sensacionalistas en YouTube. Algo que todos estos relatos, incluida la columna que están leyendo ahora, tienen en común es que fueron escritos por personas sin conocimiento directo de los hechos. Muchas de las historias juegan sobre el miedo de las personas que crecen de no entender qué es la Inteligencia Artificial (IA) y qué puede hacer.
De hecho, el concepto moderno de este miedo podría atribuirse a Mary Shelley cuando escribió su novela gótica Frankenstein o el moderno Prometeo hace doscientos años. El tema de las creaciones, robóticas o no, que se volvían contra sus creadores se convirtió en un tema recurrente en la literatura y el cine, especialmente en las reposiciones de series de cine de los años 30 que solía ver los sábados por la mañana en los 60 en el cine Paramount de mi barrio.
El período comprendido entre los años 40 y 60 fue un periodo literario especialmente fructífero para este género, durante el cual escritores de ciencia ficción de extraordinario talento crearon tramas proféticas que incluían ideas increíblemente visionarias que inciden directamente en las preocupaciones actuales sobre la IA. La más recordada de estas es el relato corto de Isaac Asimov publicado en la edición de marzo de 1942 de la revista Amazing Science Fiction, que incluía la definición de las Tres Reglas de la Robótica:
|
|
|
|
1. Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando estas entren en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
| |
|
|
Estas tres leyes fueron programadas en casi todos los robots que aparecen en la ficción de Asimov y se supone que constituyen una medida de seguridad ineludible. Muchos otros escritores de ciencia ficción han incorporado las mismas Tres Leyes en historias que involucran robots, aplicándolas a las situaciones en las que se encuentran.
En escritos posteriores, ficciones en las que los robots asumían o se les otorgaba la responsabilidad de gobernar planetas y civilizaciones enteras, Asimov añadió una cuarta ley, o ley "cero", que precede a las tres primeras:
|
|
|
|
Ley número cero: Un robot no puede dañar a la humanidad ni, por inacción, permitir que la humanidad sufra daños.
| |
|
|
Durante las últimas ocho décadas, estas Reglas de la Robótica han permeado la ciencia ficción, siendo mencionadas en innumerables libros y películas. Hoy en día, se aboga por que estas Reglas de la Robótica también se apliquen al software de IA.
No está del todo claro cómo se podría lograr esto. Se podría advertir a los programadores informáticos que revisen siempre el código que escriben para asegurarse de que cumpla con las Reglas de la Robótica, pero son los mismos programadores que a menudo no comprenden el potencial del código que han escrito. Exigir supervisión gubernamental es imposible, ya que quien crea que se puede confiar en los políticos solo necesita mirar su historial.
Quizás todos puedan consolarse sabiendo que ninguna de estas preocupaciones sobre la IA, sobre la posibilidad de que la humanidad cree monstruos que se vuelvan contra nosotros, es nueva. Esa preocupación nos ha acompañado durante dos siglos, y aún seguimos aquí.
Décadas después de promulgar las Tres Leyes, Asimov escribió: "El conocimiento tiene sus peligros, sí, pero ¿la respuesta es una retirada del conocimiento? ¿O el conocimiento se utilizará como una barrera para los peligros que trae?"
**************
Charles Miller es un consultor informático independiente con décadas de experiencia en TI y un tejano con un amor de por vida por México. Las opiniones expresadas son suyas. Puede ponerse en contacto con él al 415-101-8528 o al correo electrónico FAQ8 (at) SMAguru.com.
************** *****
Por favor contribuya a Lokkal, Colectivo en línea de SMA:
***
Descubre Lokkal: Ve el video de dos minutos a continuación. Luego, justo debajo de eso, desplácese hacia abajo por el muro comunitario de SMA. Misión
 Visit SMA's Social Network
Contact / Contactar

|
|
|
|
| | |
Click ads
Contact / Contactar
copyright 2025
|