Inteligencia artificial, el miedo del siglo 21

Stephen Hawking encendió el debate cuando dijo que la inteligencia artificial acabará con los humanos. Pensadores dicen que la idea es fútil.



Martín Pallares. Editor (I) 13 Diciembre 2014

La fascinación ante la posibilidad de que las máquinas u otros seres puedan reemplazar y hasta superar al ser humano como individuos pensantes ha acompañado a la civilización desde la antigüedad. Los griegos tuvieron en el mito de Talos a uno de los primeros robots. Talos era un gigante de bronce que protegía a la Creta minoica de posibles invasores.

En mayo de 1997 la máquina Deep Blue le ganó jugando ajedrez al entonces campeón mundial y prodigio mental Gary Kasparov y produjo una conmoción en el mundo, pues hasta entonces se pensaba que el nivel de abstracción que requiere el ajedrez jamás podría ser reproducido.  

En el 2005 un robot de la Universidad de Stanford ganó el Darpa Challenge, un rally automovilístico por senderos desconocidos en el desierto.

Esta posibilidad de inteligencias artificiales superiores a la humana ha sido motivo para las más variadas cavilaciiones de pensadores sociales y filósofos.

Por ejemplo, Ray Kurzwie, notable científico y pensador estadounidense que ahora trabaja para Google, escribió un famoso ensayo en el que afirma que el exponencial crecimiento de la inteligencia artificial producirá una singularidad tecnológica, un punto en el que la máquina inteligente se impondrá sobre la inteligencia humana.
 
Algunos, como Kurzwie, piensan que esto marcará el fin de la humanidad, pero otros han visto posibilidades mucho más positivas. Por ejemplo, Nick Bostrom, filósofo sueco que reflexiona sobre el tema, piensa que una superinteligencia podría ayudarnos a resolver temas como las enfermedades, la pobreza, la destrucción ambiental y, asimismo, podría ayudar al ser humano a ampliar su propia humanidad.

Hace dos semanas esta discusión se tomó los medios. Para ello bastó que el célebre científico Stephen Hawking se uniera al grupo de los profetas del apocalipsis.

En una entrevista a la BBC de Londres dijo que “el desarrollo de la inteligencia artificial puede producir el fin de la raza humana”. Hawking sostiene que los humanos no podrán competir con la inteligencia artificial ya que esta podrá rediseñarse a sí misma y alcanzar otra  que podría superar a aquella de los humanos. Fin del partido, según Hawking.

Las declaraciones del popular científico levantaron un debate que se enciende a menudo. No hace mucho, en octubre de este mismo año, Elon Musk, el gurú de la innovación en Silicon Valley y cofundador de PayPal, SpaceX y Tesla Motors, dijo a un grupo de estudiantes del Massachusetts Institute of Technology, MIT, que la inteligencia artificial es la mayor amenaza del ser humano.

El problema con esos escenarios es que no son necesariamente falsos ni verdaderos. Finalmente ¿quién puede predecir el futuro?

Pero en este debate no está en juego solo la credibilidad de los agoreros sino su pertinencia y utilidad.  Andrew McAfee, quizá el pensador más reconocido del tema y profesor de MIT, decía la semana pasada en un artículo publicado en el Financial Times que es un absurdo pensar en estos escenarios futurísticos, pues la humanidad aún está muy, pero muy lejos de entender la inteligencia en toda su complejidad, peor aún de reproducirla de forma total.  En ese artículo, que fue publicado en los días posteriores a la entrevista de Hawking, McAfee se pregunta
“¿Qué tan lejos estamos del infierno?”.  Y su inmediata respuesta es “lo más probable que muy lejos”.  Para McAffe los que apuestan por el apocalipsis como Hawking y Musk no solo que son alarmistas sino que están generando reflexiones inútiles y, por ende, contraproducentes.

Citando al neurocientífico Gary Marcus, este experto sostiene que “sabemos que debe haber una ley para la relación entre la unión de las neuronas y los elementos del pensamiento, pero estamos aún muy lejos de describir esas leyes”.

Según McAfee, la ciencia no ha logrado aún determinar cómo, por ejemplo, un niño puede saber tanto sobre el mundo (“eso es un gato, eso es una silla”) luego de haber estado expuesto a tan pocos ejemplos. “No sabemos exactamente qué es sentido común y resulta torpe tratar de reducirlo a un conjunto de reglas o principios lógicos”, sostiene McAfee en el artículo del Financial Times.

Otro que reaccionó en esa misma línea a las declaraciones de Hawking fue el profesor de Ética y Tecnología de la Universidad de Twente en Holanda, Mark Coeckelbergh,  en un artículo publicado en la revista especializada Wired. Ahí Coeckelbergh sostenía que más importante que pensar, en estos momentos, en que las máquinas pueden sobrepasar a los humanos hay que “explorar nuestros miedos para encontrar qué es lo que más valoramos”.

El problema con los escenarios catastróficos, incluso con los más positivos como el de Bostrom, es que nos distraen de los temas éticos y sociales que son mucho más importantes, dice. Por ejemplo, ¿hay aún espacio para la privacidad en este mundo de inteligencia artificial que estamos creando? ¿Las grandes y poderosas corporaciones como Google, Facebook, Apple, son una amenaza para el gobierno democrático de la tecnología? ¿Con más automatización habrá menos empleo? ¿Son las nuevas tecnologías financieras un peligro para la economía mundial? ¿El internet nos está llevando a una sociedad libre y justa?

Estos temas pueden ser menos atractivos, pues no son sobre inteligencia artificial o robots, sino sobre qué tipo de vidas y qué tipo de sociedad queremos tener, sostiene Coeckelbergh.

Si los humanos se dedican a pensar que Siri podrá resolverles la vida desde un iPhone, talvez es porque no están pensando las cosas que verdaderamente deben importarles.

EN ENTREGAS ANTERIORES Atras
26 de mayo 2016
Mayo 15 2016
Mayo 8 2016
Mayo1_2016
24 abril 2016
18 de abril del 2016
10 04 20 16
2Abril_2016
26 de marzo del 2016
Marzo 19 2016
Marzo13 2016
5 de marzo del 2016
febrero 28 2016
21_feb_2016
13 de febrero del 2016
febrero 6 2016
Enero31_2016
23 de enero del 2016
Enero 17 2016
Enero09_2016
2 de nero del 2016
27 de diciembre 2015
20 diciembre 2015
12 diciembre 2015
5 de diciembre del 2015
29 noviembre de 2015
22 de noviembre del 2015
14 de noviembre del 2015
8 de noviembre 2015
1 de noviembre de 2015
24 de octubre del 2015
18 octubre 2015
11 de octubre 2015
4 de octubre del 2015
27 septiembre 2015
20_de_septiembre
12 de septiembre del 2015
5 de septiembre de 2015
30 de agosto del 2015
23 agosto 2015
16 de agosto del 2015
9 de agosto del 2015
2 de agosto del 2015
26 julio 2015
19 de julio del 2015
12 de julio del 2015
5 julio 2015
28 de junio del 2015
21 de junio del 2015
14 junio 2015
8 de junio del 2015
31 de mayo del 2015
24 de mayo 2015
17 de mayo de 2015
9 de mayo del 2015
3 mayo 2015
25 de abril de 2015
18 de abril del 2015
12 abril 2015
5 de abril 2015
29 de marzo 2015
22 marzo 2015
14 03 2015
8 de marzo del 2015
1 marzo 2015
21 02 2015
14 de febrero del 2015
8 febrero del 2015
31 enero 2015
24 de enero del 2015
18 enero 2014
11 enero 2015
4 de enero del 2014
28 de diciembre 2014
21 de diciembre de 2014
14 de diciembre del 2014
7 diciembre 2014
30 de noviembre
22 de noviembre
16 de noviembre 2014
9 de noviembre de 2014
2 de noviembre 2014
26 octubre del 2014
19 de octubre
11 octubre 2014
5 de octubre 2014
28 de septiembre de 2014
20 de septiembre 2014
14 de septiembre 2014
7 de sepiembre 2014
7 de septiembre 2014
30 de agosto del 2014
24 agosto 2014
16 de agosto de 2014
10 de agosto 2014
3 agosto de 2014
27 de julio de 2014
20 de julio
12 de julio 2014
6 de julio de 2014
28 junio 2014
22 de junio de 2014
15 de junio de 2014
8 de junio de 2014
01 de junio de 2014
25 de mayo
18 mayo 2014
4 Mayo 2014
27 abril 2014
Adelante
VISITE TAMBÍEN: Planeta