A lo largo de la historia al ser humano se le ha conocido por ser capaz de realizar actos de amor, como también de odio; de ello no escapa la Inteligencia Artificial (IA).
En un artículo publicado en The Washington Post el 3 de enero, el filósofo e historiador del riesgo catastrófico, Émile P. Torres, habla sobre la IA y que es cuestión de tiempo para que las computadoras se vuelvan más inteligentes que los seres humanos.
“Esta es una predicción en la que podemos estar bastante seguros porque ya la estamos viendo convertido en realidad. Muchos sistemas han alcanzado habilidades sobrehumanas en tareas particulares como jugar Scrabble, ajedrez y póker, donde los humanos ahora pierden periódicamente contra el robot que está del otro lado del tablero”, indica Torres en su artículo.
También hace referencia a una encuesta realizada a expertos en 2014, existe un 50% de posibilidades de que se alcance la “inteligencia artificial a nivel humano” para 2050, y un 90% de posibilidades para 2075.
Otro estudio del Instituto de Riesgos Catastróficos Globales encontró al menos 72 proyectos en todo el mundo con el objetivo expreso de crear una inteligencia general artificial: “ese sería el trampolín hacia la superinteligencia artificial (SIA), la cual no solo funcionaría tan bien como los humanos en todos los alrededores de interés, sino que superaría con creces nuestras mejores Habilidades”, señala el filósofo.
Cuenta que una SIA podría ayudar a curar enfermedades como el cáncer y el Alzheimer, o limpiar el medio ambiente; no obstante, advierte que la posibilidad de que pueda destruir a la humanidad también son sólidos.
“Seguramente ninguna organización de investigación diseñaría una SIA maliciosa al estilo de Terminator que esté empeñada en destruir a la humanidad. Desafortunadamente, esa no es la preocupación. Si todos llegamos a ser eliminados por una SIA, es casi seguro que será por accidente”, argumenta Torres.
La IA debe someterse a las tres reyes de la robótica
“¿Qué pasa si programamos una SIA para establecer la paz mundial y termina jaqueando los sistemas gubernamentales para detonar todas las armas nucleares del planeta, tras razonar que sin la existencia humana no habría más guerra? Sí, podremos programar la mente para que no haga eso. Pero, ¿y su plan B?”, se pregunta el filósofo.
El director vicepresidente de la ONG Foro Penal, Gonzalo Himiob, piensa igual que Torres, de hecho, pide que a la Inteligencia Artificial se le someta a las tres leyes de la robótica del escritor de ficción, Isaac Asimov.
- Primera Ley: un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
- Segunda Ley: un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Tercera Ley: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.