Discusiones de la ética de la inteligencia artificial: ¿Es la verdadera inteligencia artificial posible de obtener? Si fuera posible, ¿sería éticamente viable crearla?

Desde la creación de la prueba de Turing en 1950, se ha discutido la probabilidad del ser humano crear una máquina que pudiera pensar. Muchos autores y científicos de cómputos, incluyendo a Stephen Hawking, afirman que esto es imposible de obtener y, si fuera posible, la idea no debe ser entretenida, debido a que causaría grandes problemas en la humanidad, como el robo de trabajos por dichas máquinas y hasta el Armagedón. Pero muchos afirman que la verdadera inteligencia artificial podría ser obtenida y que incluso solucionaría muchos problemas en la humanidad. Esta opinión es compartida por muchos en el campo de la ciencias de cómputos, incluyendo a Alan Turing, autor del escrito “Computing Machinery And Intelligence”, el cual originalmente formuló la pregunta: ¿Pueden las máquinas pensar?”. Desde la formulación de ese pregunta muchos se han dedicado a crear esa máquina con la capacidad de aprender y pensar por sí misma, incluso nació una rama de las ciencias de cómputos dedicada a esa búsqueda, la inteligencia artificial (IA). Competencias como el Loebner Prize y aplicaciones inteligentes como Siri y Cortana son lo más cercano que hemos llegado a obtener la inteligencia total de una máquina, pero todavía en el nuevo milenio la computadora que tiene la capacidad de pensar totalmente por sí sola no ha sido obtenida. En este escrito se discutirá ambas caras de la moneda desde el punto de vista de varios científicos  y se compartirá la opinión personal de esta servidora acerca de los temas antes mencionados.

En 1950, el matemático, lógico, científico de la computación, criptógrafo y filósofo, Alan Turing formuló una pregunta científica filosófica cuya contestación ha formulado grandes debates en los pasados 67 años: “¿Puede una máquina pensar?”. Turing, considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna, desarrolló una prueba hipotética para probar o no esa posibilidad, la Prueba Turing, la cual se basa en el juego de imitación. La idea original es tener tres personas, un interrogador, un hombre y una computadora. El interrogador está apartado de los otros dos, y sólo puede comunicarse con ellos escribiendo en un lenguaje que todos entiendan. El objetivo del interrogador es descubrir quién es la computadora y quien es el hombre, mientras que el de los otros dos es convencer al interrogador de que son el hombre. La máquina podría pasar el test de Turing cuando el interrogador no lograra reconocer que es una máquina en un número significativo de ocasiones,  lo cual significa que sí puede “pensar” (Turing, 1950).

¿El una máquina poder engañar a una persona varias veces de ser humano en el juego de imitación confirma que ésta es un ser inteligente?  Al Turing publicar su artículo salieron rápidamente a la luz las primeras críticas. La mayoría de ellas estaban basadas en temas éticos y religiosos, y muchas de las posiciones más críticas venían de personas que consideraban que el ser humano era muy especial y que ninguna máquina podría ni siquiera acercarse a las capacidades de este. Otra dificultad es la falta de conciencia. Se afirmaba que para que una máquina fuera mentalmente activa debería tener conciencia, tanto de sí misma como de los demás, y generar sentimientos positivos o negativos sobre la información que le llega o las acciones que realiza (Pastor Frutos & Vázquez Velasco, 2003).

Pero no todos piensan de esa manera, muchos piensan que la inteligencia artificial es posible de obtener a largo plazo. Por ejemplo, Ray Kurzweil, inventor estadounidense, empresario, escritor,  científico especializado en Ciencias de la Computación e Inteligencia Artificial y director de  ingeniería en Google piensa que es totalmente posible de obtener y ha dedicado toda su vida en desarrollar IA fuertes. Otros como Mark Humphrys, profesor de ciencias  cómputos de la Universidad de la Ciudad de Dublin, piensan que la verdadera IA es posible pero no ocurrirá debido a que toda IA fuerte se está creando en laboratorios sin acceso a otras  inteligencia, lo que evita que estas se desarrollen a su capacidad máxima de interacción social.

La pregunta de ser posible o no la creación de una verdadera inteligencia artificial no es el único problema que surge de este tema. Otro problema es si la inteligencia artificial verdadera se debería desarrollar en su totalidad. Nick Bostrom, director del Instituto del Futuro de la Humanidad de Oxford, Bill Gates, creador de Microsoft, y  Stephen Hawking, teórico físico, piensan que esta tecnología podría traer grandes problemas, desde sobrepasar la inteligencia humana hasta destruirnos completamente si no es manejada con cuidado (Peckham, 2016).

De acuerdo a Coppin (2004), muchos filósofos e investigadores de IA consideran que el generar IA fuerte es imposible, falso y hasta un pensamiento ridículo; que la posibilidad de crear un robot con emociones y una verdadera conciencia es algo solamente posible en el mundo de la ciencia ficción y no debe ser considerado la meta principal de la rama de estudio de la IA. Por otro lado, Ray Kurzweil piensa que ya para el 2029 AI fuertes serán logrados (Kurzweil R. , 2014).

Como pueden ver la conciencia es un tema muy importante en el debate acerca si es posible crear o no IA fuerte. Uno de los argumentos en contra de una máquina pensante presentado a Alan Turing afirmaba que para que una máquina fuera mentalmente activa debería tener conciencia, tanto de sí misma como de los demás, y generar sentimientos positivos o negativos sobre la información que le llega o las acciones que realiza. Turing argumenta que esta afirmación era inválida debido al solipsismo y lo que se conoce como el problema de las otras mentes.  El solipsismo sostiene que la única manera de saber si una máquina piensa es ser esa máquina. Siguiendo esta idea, la única manera de saber si otro ser humano piensa es siendo ese ser humano. Turing afirma que, si entre los seres humanos se considera políticamente correcto obviar el solipsismo, también debería hacerse con las máquinas. Por lo tanto, cómo la única forma de resolver el problema de la falta de conciencia es el solipsismo, lo más adecuado es que tampoco se considere como argumento en contra de la posibilidad de que una máquina piense.

Podemos también mencionar como argumento el dualismo, creado por el filósofo René Descartes, el cual declara la idea de que el universo consiste de dos entidades: la mente y la materia. Coppin (2004), menciona que Descartes visualizaba la mente o el alma como una entidad separada del cuerpo físico y que no estaba limitado por este último de ninguna forma. Según el filósofo esto no se extendía a los animales, lo cual hace a Coppin (2004) comentar que esto hace a un gato o un perro similar a una máquina, entidades no conscientes al nivel del ser humano.

El último argumento en contra de los IA fuertes que se presentará en este escrito es el argumento del comportamiento informal. Esta es la afirmación de que el comportamiento humano es demasiado complejo para ser capturado por cualquier simple conjunto de reglas; debido a que las computadoras no pueden hacer más que seguir un conjunto de reglas, no pueden generar un comportamiento tan inteligente como el de los humanos. Este argumento se basa en la suposición de que no hay un conjunto de reglas que describa lo que una persona debe hacer en cada posible conjunto de circunstancias y en el supuesto adicional de que hay un conjunto de reglas que describe lo que una máquina hará en cada posible conjunto de circunstancias. Turing argumenta que este conjunto de reglas si puede ser desarrollado, simplemente que debemos seguir estudiando al ser humano científicamente para poder desarrollarlas. El único caso que no se podría desarrollar esa lista de reglas es si se dice “Hemos buscado suficiente, y no hay leyes semejantes para poder programar la computadora”. Por último, utilizando el inverso de este mismo argumento, se puede suponer que dada una máquina de estado discreto, ciertamente un ser humano será posible de descubrir por observación suficiente de la máquina para predecir su comportamiento futuro, y esto dentro de un tiempo razonable, digamos mil años, sin conocer previamente su programación.

La Inteligencia Artificial (AI) nos terminará, nos salvará o nos dejará obsoletos. El argumento más aceptado en contra de la inteligencia artificial por la mayoría de la población es el pensamiento de que los IA fuertes generarán la destrucción del mundo y esclavización del ser humano. Es la creencia que  los IA fuertes sobrepasarán la inteligencia humana, se  reproducirán solos y crearán nuevas armas de destrucción masiva las cuales utilizarán en contra de la humanidad al ellos creerse superiores a los humanos. Este escenario sería el equivalente de  la colonización europea en las Américas, dónde la civilización del tiempo fue destruida por los humanos con la fuerza de armas de fuego superiores. Este tipo de destrucción de la humanidad por AI es a cause de la cinematografía y literatura del género de la ciencia ficción, por ejemplo HAL 3000 de la 2001 Space Odessy película. ¿Pero es éste un argumento válido para no desarrollar la IA fuerte? ¿Los beneficios al ser humano no serían superiores?

Las opiniones de los programadores, filósofos y empresarios más brillantes varían. Sam Altman, programador y presidente del start-up Y Combinator, dónde se está trabajando en el desarrollo de una versión de IA de código abierto que estaría disponible para todos, cree que las futuras iteraciones podrían diseñarse de tal forma para que se auto-supervise, trabajando sólo hacia fines benévolos (Peckham, 2016). Él entiende que su sistema “OpenAI” superará a la inteligencia humana en cuestión de décadas, pero que el hecho de que esté disponible para cualquiera debe compensar y evadir cualquier riesgo hacia la humanidad. Nick Bostrom, director del Instituto del Futuro de la Humanidad de Oxford y autor del libro Superinteligencia: Caminos, Peligros, Estrategias, opina de forma contraria, advirtiendo que la IA podría rápidamente convertirse en maligno y disponer de los seres humanos. El mundo subsiguiente albergaría “milagros económicos y extraordinarios tecnológicos, sin que nadie pudiera beneficiarse”, como “un Disneyland sin hijos” (Peckham, 2016). Bill Gates, fundador de Microsoft, también se preocupa que sistemas superinteligentes se vuelvan lo suficientemente fuertes y autónomos para ser una preocupación, aunque él la IA débil. El físico teórico, Stephen Hawkin, por otro lado, también piensa que la IA Podría ser milagrosa y catastrófica a la vez, llamándola “el mayor acontecimiento de la historia humana”, ayudando a acabar con la guerra, las enfermedades y la pobreza. Pero, también entiende que tiene un potencial para crecer tan explosivamente de forme que podría terminar “superando a los mercados financieros, superando a los investigadores humanos, manipulando a los líderes humanos y desarrollando armas que ni siquiera podemos entender”. Hawkings advierte que también podría ser “el últim evento en nuestra historia, a menos que aprendamos a evitar los riesgos ” (Peckham, 2016). Debido a que Google, Facebook y otras compañías están buscando activamente crear una máquina inteligente de aprendizaje, Stuart J. Russel, profesor de ciencias de cómputos de la Universidad de California Berkley,  razona, ” una de las cosas que no debemos hacer es presionar a toda velocidad en la construcción de superinteligencia sin dar pensamiento a los riesgos potenciales. Parece un poco tonto… Es como la investigación sobre la fusión. Si le preguntas a un investigador de fusión lo que hacen, dicen que trabajan en la contención. Si quieres energía ilimitada, es mejor que contengas la reacción de fusión. De manera similar, si quieres inteligencia ilimitada, es mejor que averigües cómo alinear las computadoras con las necesidades humanas” (Ford, 2015).

Debido a que ya se presentaron varias opiniones, discursos y argumentos acerca de estos temas dados por las grandes mentes filosóficas y científicas, no me incomoda dar mi opinión personal. La inteligencia artificial fuerte equivalente al ser humano es posible de obtener, aunque no sea viable. En estos momentos la inteligencia artificial es de gran ayuda para muchas personas pero son herramientas, no colegas, como menciona Dennett. No hay necesidad para que estas se vuelvan completamente equivalente a los seres humanos. ¿Por qué darle emociones, sentimientos y libre albedrío? Esto eliminaría los aspectos positivos económicos. El desarrollar este tipo de IA equivalente al humano crearía un IA igual de débil emocionalmente que un ser humano, algo totalmente innecesario. En mi mente IA ideal sería uno que sobrepasa en capacidad intelectual del ser humano pero que mantiene su falta de emoción, este sería de mayor ayuda para el ser humano.

De ser estas máquinas equivalentes al humano desarrolladas, deben ser utilizadas a su máximo potencial. Se crearía una cultura totalmente nueva y única, se convertirían en otro tipo de raza humana, que puede llegar más lejos que lo que nuestro cuerpo físico biológico nos permiten. La IA fuerte nos llevaría más lejos al espacio, el mar y la corteza de a tierra. Nos permitiría resolver grandes problemas mundiales, como erradicar enfermedades, obtener más energía, entre otras cosas, gracias a su capacidad de pensamiento superior al del ser humano. Si al fin no nos aniquilan, nos sobrepasaran en vida y existencia, o sea si alguna vez el ser humano termina extinto, estas máquinas equivalentes sobrevivirían y mantendría el espíritu de la humanidad. Aunque no puedo predecir cuándo se creará o contestar con seguridad si estos  grandes sueños deben ser perseguidos, puedo decir que la inteligencia artificial fuerte está siendo poco a poco desarrollada. Lo importante es, al igual que en todos los casos de nuevas tecnologías, crear nuevas regulaciones para controlar quiénes tendrán control de ella y cómo es que esta debe ser utilizada para evitar el mal uso.

Referencias:

  1. Russel, S., & Norvig, P. (1995). Artificial Intelligence: A Modern Approach. Englewood: Prentice Hall.
  2. Coppin, B. (2004). Artificial Intelligence Illuminated. Sudbury: Jones And Bartlett Publishers.
  3. Turing, A. (1950). Computing machinery and intelligence. Mind(59), 433-460.
  4. Russel, S., & Norvig, P. (1995). Artificial Intelligence: A Modern Approach. Englewood: Prentice Hall.

Videos:

  1. The Turing test: Can a computer pass for a human? – Alex Gendler
  2. Oscar Schwartz: Can a computer write poetry?
  3. Dan Dennett: The illusion of consciousness
  4. Sam Harris: Can we build AI without losing control over it?
  5. Jeremy Howard: The wonderful and terrifying implications of computers that can learn

Blogs:

  1. AI Trends
  2. Science Daily: Artificial Intelligence News
  3. MIT News: Artificial Intelligence
  4. AI Weekly
  5. Artificial-Intelligence.Blog

Páginas Web:

  1. Daisy, C. (21 de marzo de 2017). Pros And Cons Of Artificial Intelligence You Must Be Aware Of! Recuperado el 5 de mayo de 2017, de CSEstack.org: http://www.csestack.org/pros-cons-artificial-intelligence/
  2. Fekety, M. (11 de agosto de 2015). Pros and Cons of Artificial Intelligence. Recuperado el 5 de mayo de 2017, de LinkedIN: https://www.linkedin.com/pulse/pros-cons-artificial-intelligence-mike-fekety
  3. Ford, P. (11 de febrero de 2015). Our Fear of Artificial Intelligence. Recuperado el 5 de mayo de 2017, de MIT Technology Review: https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/
  4. Future of Life Institute. (2016). BENEFITS & RISKS OF ARTIFICIAL INTELLIGENCE. Recuperado el 5 de mayo de 2017, de Futureoflife.org: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/
  5. Kurzweil, R. (19 de diciembre de 2014). Don’t Fear Artificial Intelligence. Recuperado el 6 de mayo de 2017, de Times.com: http://time.com/3641921/dont-fear-artificial-intelligence/

THE BUSINESS IMPLICATIONS OF MACHINE LEARNING

Link to real article

 

Drew Breunig just posted this article, were he explains how Machine Learning will affect business:

  1. Winners Will Win More: Existing big players like Facebook and Google have a massive advantage. They have tons of users, tons of their time, and war chests filled with both training data and money. Competing with these companies head on, creating the same training data they generate, is futile.
  2. Successful Startups Will Create Unique Training Data: Challengers can negate much of Google and Facebook’s advantages by pursuing new frontiers of training data. This can involve mobile apps, but will often involve new hardware to bring RDAs to new contexts. Successful challengers might build such a beachhead and be acquired for it before they ever get to develop models (see: Nest). The hard part for these companies will be transitioning from developing a product that generates lots of unique, good training data to building unique RDAs to generate and maintain velocity.
  3. RDAs are a New Network Effect Model: As RDAs emerge and mature, companies and investors will better understand how RDAs can build business models with network effects. Once there’s a clear example, the same explosion of marketplace business (“Uber for X”) and social companies (“Facebook for X”) will occur for machine learning start ups.
  4. Machine Learning Will Accelerate the Internet of Things: Hardware capabilities will stagnate but form factors will diversify. Computers will colonize every context that can fit sensors and network connectivity in search of training data.

Neural Network: A Brief Introduction

The field of neural networks was founded  by Bernard Widrow of Stanford University in the 1950s. According to Webopedia, Neural Networks are : “A type of artificial intelligence that attempts to imitate the way a human brain works. Rather than using a digital model, in which all computations manipulate zeros and ones, a neural network works by creating connections between processing elements, the computer equivalent of neurons. The organization and weights of the connections determine the output.” In other words we like to think it is the algorithm equivalent of the brain.

Just like the brain, Neural networks are used for predicting events when the networks have a large database of prior examples to draw on. Neural networks are currently used prominently in voice recognition systems, image recognition systems, industrial robotics, medical imaging, data mining and aerospace applications.

Larry Hardesty of MIT News Office mentions that: “Neural nets were a major area of research in both neuroscience and computer science until 1969, when, according to computer science lore, they were killed off by the MIT mathematicians Marvin Minsky and Seymour Papert, who a year later would become co-directors of the new MIT Artificial Intelligence Laboratory.” Still, Neural networks are reemerging in Deep Learning.

I invite you to read Hardesty’s article in the following link: MIT NEWS Explained: Neural networks

Machine Learning Books and links

So I decided to make a small collection of free online machine learning books. I hope these help.

Machine Learning in action by Peter Harrington (2012)

Introduction to Machine Learning by Alex Smola and S.V.N. Vishwanathan (2008)

A Brief Introduction to Neural Networks by D. KRIESEL

A Course in Machine Learning Hal Daumé III (2015)

A First Encounter with Machine Learning by Max Welling (2011)

Deep Learning An MIT Press book Ian Goodfellow and Yoshua Bengio and Aaron Courville

Machine Learning by various authors

Bayesian Reasoning and Machine Learning by David Barber

Why Biotechnology Should Embrace the Power of Machine Learning to Bring Inductive Reasoning to Bioengineering

Article

Today I mentioned how the Royal Society of Chemistry is thinking about robots and machine learning, now let us see the point of view of those in Biotechnology. Claes Gustafsson Ph.D. from GEN mentions that “Despite being increasingly common as a classification tool in applications ranging from transcriptomics, metabolomics, and neuronal synaptic activities, ML is still almost absent in the area of bioengineering”. He also questions why that is and mentions a positive result using Googles Deep Learning: ” In a recent JAMA publication, Google Research applied Deep Learning to diagnose diabetic retinopathy patients from photographs of their retina. An initial set of 128,000 retina images was analyzed and scored by trained ophthalmologists for signs of onset of diabetic retinopathy. The images and the scoring were then processed by Google’s Deep Learning software to identify patterns in the images that correlated with the clinical scoring. The resulting algorithm was subsequently validated with a separate set of ~12,000 images that the software had not seen before.”

He also goes on to mention that he believes ML can be applies successfully in biotechnology and bioengineering:  “If we can complement our historical dependence on deductive reasoning with the inductive inference from ML, and increasingly look at biology as something to be engineered instead of a discovery-based science, ML has a bright future in bioengineering.”

Chemistry World: Will machine learning allow robots to take over?

Article

Today I found an article in an online Chemistry magazine by the Royal Society of Chemistry, Chemistry World, that read: “Will machine learning allow robots to take over?”. I find it amusing, since not only am I a Computer Science major, but I also major in Chemistry.  CS is not a common topic in the Chemistry world, unless if we re talking about a new operational program for analytical/characterization studies or programs that run advance calculations and modelling. AI is not a common topic, let alone robots and world domination. So it is interesting to Nicholas Bailey’s opinion as one of the web analytics specialist at the Royal Society of Chemistry.

He mentions that though we do not hear a lot of machine learning news in chemistry:”Algorithms used by online giants such as Google, Netflix and Amazon shape what we buy, the films we watch and how the global economy operates. In chemistry, the same concept can help us develop new drugs, materials and processes.” He then goes on to explain what machine learning is in very simple terms and explaining how they surpass us in certain areas.

Still, he assures us that: “Currently, we are only able to train machines to convert inputs from a highly specific domain (English language text, photographs of hotels) into a small range of possible outputs. In other words, a machine that can walk into a bar and demand your clothes, your boots, and your motorcycle is a long way off: and if we did create it, that’s all it would be able to do.”  So we can relax for now.

 

 

Machine learning breakthroughs from Google’s TPU processor

PDF File

Google has a new chip that makes machine learning way faster. The new Tensor Processing Unit is a major leap forward for intelligent applications. It calls the chip a Tensor Processing Unit, or TPU, named after the TensorFlow software it uses for its machine learning programs.

Here is part of the Abstract:

TPU, deployed in datacenters since 2015, accelerates the inference phase of neural networks (NN).  The TPU’s deterministic execution model is a better match to the 99th-percentile response-time requirement of our NN applications than are the time-varying optimizations of CPUs and GPUs (caches, out-of-order execution, multithreading, multiprocessing, prefetching, …) that help average throughput more
than guaranteed latency. Despite low utilization for some applications, the TPU is on average about 15X -30X faster than its contemporary GPU or CPU, with TOPS/Watt about 30X – 80X higher.