Discusiones de la ética de la inteligencia artificial: ¿Es la verdadera inteligencia artificial posible de obtener? Si fuera posible, ¿sería éticamente viable crearla?

Desde la creación de la prueba de Turing en 1950, se ha discutido la probabilidad del ser humano crear una máquina que pudiera pensar. Muchos autores y científicos de cómputos, incluyendo a Stephen Hawking, afirman que esto es imposible de obtener y, si fuera posible, la idea no debe ser entretenida, debido a que causaría grandes problemas en la humanidad, como el robo de trabajos por dichas máquinas y hasta el Armagedón. Pero muchos afirman que la verdadera inteligencia artificial podría ser obtenida y que incluso solucionaría muchos problemas en la humanidad. Esta opinión es compartida por muchos en el campo de la ciencias de cómputos, incluyendo a Alan Turing, autor del escrito “Computing Machinery And Intelligence”, el cual originalmente formuló la pregunta: ¿Pueden las máquinas pensar?”. Desde la formulación de ese pregunta muchos se han dedicado a crear esa máquina con la capacidad de aprender y pensar por sí misma, incluso nació una rama de las ciencias de cómputos dedicada a esa búsqueda, la inteligencia artificial (IA). Competencias como el Loebner Prize y aplicaciones inteligentes como Siri y Cortana son lo más cercano que hemos llegado a obtener la inteligencia total de una máquina, pero todavía en el nuevo milenio la computadora que tiene la capacidad de pensar totalmente por sí sola no ha sido obtenida. En este escrito se discutirá ambas caras de la moneda desde el punto de vista de varios científicos  y se compartirá la opinión personal de esta servidora acerca de los temas antes mencionados.

En 1950, el matemático, lógico, científico de la computación, criptógrafo y filósofo, Alan Turing formuló una pregunta científica filosófica cuya contestación ha formulado grandes debates en los pasados 67 años: “¿Puede una máquina pensar?”. Turing, considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna, desarrolló una prueba hipotética para probar o no esa posibilidad, la Prueba Turing, la cual se basa en el juego de imitación. La idea original es tener tres personas, un interrogador, un hombre y una computadora. El interrogador está apartado de los otros dos, y sólo puede comunicarse con ellos escribiendo en un lenguaje que todos entiendan. El objetivo del interrogador es descubrir quién es la computadora y quien es el hombre, mientras que el de los otros dos es convencer al interrogador de que son el hombre. La máquina podría pasar el test de Turing cuando el interrogador no lograra reconocer que es una máquina en un número significativo de ocasiones,  lo cual significa que sí puede “pensar” (Turing, 1950).

¿El una máquina poder engañar a una persona varias veces de ser humano en el juego de imitación confirma que ésta es un ser inteligente?  Al Turing publicar su artículo salieron rápidamente a la luz las primeras críticas. La mayoría de ellas estaban basadas en temas éticos y religiosos, y muchas de las posiciones más críticas venían de personas que consideraban que el ser humano era muy especial y que ninguna máquina podría ni siquiera acercarse a las capacidades de este. Otra dificultad es la falta de conciencia. Se afirmaba que para que una máquina fuera mentalmente activa debería tener conciencia, tanto de sí misma como de los demás, y generar sentimientos positivos o negativos sobre la información que le llega o las acciones que realiza (Pastor Frutos & Vázquez Velasco, 2003).

Pero no todos piensan de esa manera, muchos piensan que la inteligencia artificial es posible de obtener a largo plazo. Por ejemplo, Ray Kurzweil, inventor estadounidense, empresario, escritor,  científico especializado en Ciencias de la Computación e Inteligencia Artificial y director de  ingeniería en Google piensa que es totalmente posible de obtener y ha dedicado toda su vida en desarrollar IA fuertes. Otros como Mark Humphrys, profesor de ciencias  cómputos de la Universidad de la Ciudad de Dublin, piensan que la verdadera IA es posible pero no ocurrirá debido a que toda IA fuerte se está creando en laboratorios sin acceso a otras  inteligencia, lo que evita que estas se desarrollen a su capacidad máxima de interacción social.

La pregunta de ser posible o no la creación de una verdadera inteligencia artificial no es el único problema que surge de este tema. Otro problema es si la inteligencia artificial verdadera se debería desarrollar en su totalidad. Nick Bostrom, director del Instituto del Futuro de la Humanidad de Oxford, Bill Gates, creador de Microsoft, y  Stephen Hawking, teórico físico, piensan que esta tecnología podría traer grandes problemas, desde sobrepasar la inteligencia humana hasta destruirnos completamente si no es manejada con cuidado (Peckham, 2016).

De acuerdo a Coppin (2004), muchos filósofos e investigadores de IA consideran que el generar IA fuerte es imposible, falso y hasta un pensamiento ridículo; que la posibilidad de crear un robot con emociones y una verdadera conciencia es algo solamente posible en el mundo de la ciencia ficción y no debe ser considerado la meta principal de la rama de estudio de la IA. Por otro lado, Ray Kurzweil piensa que ya para el 2029 AI fuertes serán logrados (Kurzweil R. , 2014).

Como pueden ver la conciencia es un tema muy importante en el debate acerca si es posible crear o no IA fuerte. Uno de los argumentos en contra de una máquina pensante presentado a Alan Turing afirmaba que para que una máquina fuera mentalmente activa debería tener conciencia, tanto de sí misma como de los demás, y generar sentimientos positivos o negativos sobre la información que le llega o las acciones que realiza. Turing argumenta que esta afirmación era inválida debido al solipsismo y lo que se conoce como el problema de las otras mentes.  El solipsismo sostiene que la única manera de saber si una máquina piensa es ser esa máquina. Siguiendo esta idea, la única manera de saber si otro ser humano piensa es siendo ese ser humano. Turing afirma que, si entre los seres humanos se considera políticamente correcto obviar el solipsismo, también debería hacerse con las máquinas. Por lo tanto, cómo la única forma de resolver el problema de la falta de conciencia es el solipsismo, lo más adecuado es que tampoco se considere como argumento en contra de la posibilidad de que una máquina piense.

Podemos también mencionar como argumento el dualismo, creado por el filósofo René Descartes, el cual declara la idea de que el universo consiste de dos entidades: la mente y la materia. Coppin (2004), menciona que Descartes visualizaba la mente o el alma como una entidad separada del cuerpo físico y que no estaba limitado por este último de ninguna forma. Según el filósofo esto no se extendía a los animales, lo cual hace a Coppin (2004) comentar que esto hace a un gato o un perro similar a una máquina, entidades no conscientes al nivel del ser humano.

El último argumento en contra de los IA fuertes que se presentará en este escrito es el argumento del comportamiento informal. Esta es la afirmación de que el comportamiento humano es demasiado complejo para ser capturado por cualquier simple conjunto de reglas; debido a que las computadoras no pueden hacer más que seguir un conjunto de reglas, no pueden generar un comportamiento tan inteligente como el de los humanos. Este argumento se basa en la suposición de que no hay un conjunto de reglas que describa lo que una persona debe hacer en cada posible conjunto de circunstancias y en el supuesto adicional de que hay un conjunto de reglas que describe lo que una máquina hará en cada posible conjunto de circunstancias. Turing argumenta que este conjunto de reglas si puede ser desarrollado, simplemente que debemos seguir estudiando al ser humano científicamente para poder desarrollarlas. El único caso que no se podría desarrollar esa lista de reglas es si se dice “Hemos buscado suficiente, y no hay leyes semejantes para poder programar la computadora”. Por último, utilizando el inverso de este mismo argumento, se puede suponer que dada una máquina de estado discreto, ciertamente un ser humano será posible de descubrir por observación suficiente de la máquina para predecir su comportamiento futuro, y esto dentro de un tiempo razonable, digamos mil años, sin conocer previamente su programación.

La Inteligencia Artificial (AI) nos terminará, nos salvará o nos dejará obsoletos. El argumento más aceptado en contra de la inteligencia artificial por la mayoría de la población es el pensamiento de que los IA fuertes generarán la destrucción del mundo y esclavización del ser humano. Es la creencia que  los IA fuertes sobrepasarán la inteligencia humana, se  reproducirán solos y crearán nuevas armas de destrucción masiva las cuales utilizarán en contra de la humanidad al ellos creerse superiores a los humanos. Este escenario sería el equivalente de  la colonización europea en las Américas, dónde la civilización del tiempo fue destruida por los humanos con la fuerza de armas de fuego superiores. Este tipo de destrucción de la humanidad por AI es a cause de la cinematografía y literatura del género de la ciencia ficción, por ejemplo HAL 3000 de la 2001 Space Odessy película. ¿Pero es éste un argumento válido para no desarrollar la IA fuerte? ¿Los beneficios al ser humano no serían superiores?

Las opiniones de los programadores, filósofos y empresarios más brillantes varían. Sam Altman, programador y presidente del start-up Y Combinator, dónde se está trabajando en el desarrollo de una versión de IA de código abierto que estaría disponible para todos, cree que las futuras iteraciones podrían diseñarse de tal forma para que se auto-supervise, trabajando sólo hacia fines benévolos (Peckham, 2016). Él entiende que su sistema “OpenAI” superará a la inteligencia humana en cuestión de décadas, pero que el hecho de que esté disponible para cualquiera debe compensar y evadir cualquier riesgo hacia la humanidad. Nick Bostrom, director del Instituto del Futuro de la Humanidad de Oxford y autor del libro Superinteligencia: Caminos, Peligros, Estrategias, opina de forma contraria, advirtiendo que la IA podría rápidamente convertirse en maligno y disponer de los seres humanos. El mundo subsiguiente albergaría “milagros económicos y extraordinarios tecnológicos, sin que nadie pudiera beneficiarse”, como “un Disneyland sin hijos” (Peckham, 2016). Bill Gates, fundador de Microsoft, también se preocupa que sistemas superinteligentes se vuelvan lo suficientemente fuertes y autónomos para ser una preocupación, aunque él la IA débil. El físico teórico, Stephen Hawkin, por otro lado, también piensa que la IA Podría ser milagrosa y catastrófica a la vez, llamándola “el mayor acontecimiento de la historia humana”, ayudando a acabar con la guerra, las enfermedades y la pobreza. Pero, también entiende que tiene un potencial para crecer tan explosivamente de forme que podría terminar “superando a los mercados financieros, superando a los investigadores humanos, manipulando a los líderes humanos y desarrollando armas que ni siquiera podemos entender”. Hawkings advierte que también podría ser “el últim evento en nuestra historia, a menos que aprendamos a evitar los riesgos ” (Peckham, 2016). Debido a que Google, Facebook y otras compañías están buscando activamente crear una máquina inteligente de aprendizaje, Stuart J. Russel, profesor de ciencias de cómputos de la Universidad de California Berkley,  razona, ” una de las cosas que no debemos hacer es presionar a toda velocidad en la construcción de superinteligencia sin dar pensamiento a los riesgos potenciales. Parece un poco tonto… Es como la investigación sobre la fusión. Si le preguntas a un investigador de fusión lo que hacen, dicen que trabajan en la contención. Si quieres energía ilimitada, es mejor que contengas la reacción de fusión. De manera similar, si quieres inteligencia ilimitada, es mejor que averigües cómo alinear las computadoras con las necesidades humanas” (Ford, 2015).

Debido a que ya se presentaron varias opiniones, discursos y argumentos acerca de estos temas dados por las grandes mentes filosóficas y científicas, no me incomoda dar mi opinión personal. La inteligencia artificial fuerte equivalente al ser humano es posible de obtener, aunque no sea viable. En estos momentos la inteligencia artificial es de gran ayuda para muchas personas pero son herramientas, no colegas, como menciona Dennett. No hay necesidad para que estas se vuelvan completamente equivalente a los seres humanos. ¿Por qué darle emociones, sentimientos y libre albedrío? Esto eliminaría los aspectos positivos económicos. El desarrollar este tipo de IA equivalente al humano crearía un IA igual de débil emocionalmente que un ser humano, algo totalmente innecesario. En mi mente IA ideal sería uno que sobrepasa en capacidad intelectual del ser humano pero que mantiene su falta de emoción, este sería de mayor ayuda para el ser humano.

De ser estas máquinas equivalentes al humano desarrolladas, deben ser utilizadas a su máximo potencial. Se crearía una cultura totalmente nueva y única, se convertirían en otro tipo de raza humana, que puede llegar más lejos que lo que nuestro cuerpo físico biológico nos permiten. La IA fuerte nos llevaría más lejos al espacio, el mar y la corteza de a tierra. Nos permitiría resolver grandes problemas mundiales, como erradicar enfermedades, obtener más energía, entre otras cosas, gracias a su capacidad de pensamiento superior al del ser humano. Si al fin no nos aniquilan, nos sobrepasaran en vida y existencia, o sea si alguna vez el ser humano termina extinto, estas máquinas equivalentes sobrevivirían y mantendría el espíritu de la humanidad. Aunque no puedo predecir cuándo se creará o contestar con seguridad si estos  grandes sueños deben ser perseguidos, puedo decir que la inteligencia artificial fuerte está siendo poco a poco desarrollada. Lo importante es, al igual que en todos los casos de nuevas tecnologías, crear nuevas regulaciones para controlar quiénes tendrán control de ella y cómo es que esta debe ser utilizada para evitar el mal uso.

Referencias:

  1. Russel, S., & Norvig, P. (1995). Artificial Intelligence: A Modern Approach. Englewood: Prentice Hall.
  2. Coppin, B. (2004). Artificial Intelligence Illuminated. Sudbury: Jones And Bartlett Publishers.
  3. Turing, A. (1950). Computing machinery and intelligence. Mind(59), 433-460.
  4. Russel, S., & Norvig, P. (1995). Artificial Intelligence: A Modern Approach. Englewood: Prentice Hall.

Videos:

  1. The Turing test: Can a computer pass for a human? – Alex Gendler
  2. Oscar Schwartz: Can a computer write poetry?
  3. Dan Dennett: The illusion of consciousness
  4. Sam Harris: Can we build AI without losing control over it?
  5. Jeremy Howard: The wonderful and terrifying implications of computers that can learn

Blogs:

  1. AI Trends
  2. Science Daily: Artificial Intelligence News
  3. MIT News: Artificial Intelligence
  4. AI Weekly
  5. Artificial-Intelligence.Blog

Páginas Web:

  1. Daisy, C. (21 de marzo de 2017). Pros And Cons Of Artificial Intelligence You Must Be Aware Of! Recuperado el 5 de mayo de 2017, de CSEstack.org: http://www.csestack.org/pros-cons-artificial-intelligence/
  2. Fekety, M. (11 de agosto de 2015). Pros and Cons of Artificial Intelligence. Recuperado el 5 de mayo de 2017, de LinkedIN: https://www.linkedin.com/pulse/pros-cons-artificial-intelligence-mike-fekety
  3. Ford, P. (11 de febrero de 2015). Our Fear of Artificial Intelligence. Recuperado el 5 de mayo de 2017, de MIT Technology Review: https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/
  4. Future of Life Institute. (2016). BENEFITS & RISKS OF ARTIFICIAL INTELLIGENCE. Recuperado el 5 de mayo de 2017, de Futureoflife.org: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/
  5. Kurzweil, R. (19 de diciembre de 2014). Don’t Fear Artificial Intelligence. Recuperado el 6 de mayo de 2017, de Times.com: http://time.com/3641921/dont-fear-artificial-intelligence/
Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s