Inteligencia artificial

3901 bytes eliminados, 15:26 30 dic 2016
sin resumen de edición
Desde el principio de la historia de la informática se planteó el problema de si será posible algún día diseñar y programar computadores y sistemas complejos semejantes para que actúen con una inteligencia comparable, o incluso superior a la humana. Se trata de una cuestión que nos afecta profundamente desde el punto de vista sentimental, lo que explica el éxito de obras clásicas de ficción como ''Frankenstein'' o ''El golem'', que expresan en forma literaria el viejo sueño deconstruir hombres artificiales, ya sea por medios biológicos no naturales, o en
forma de autómatas mecánicos.
La discrepancia entreestas expectativas y el carácter repetitivo y rígido de la mayor parte denuestras aplicaciones informáticas (incluso muchas de las más avanzadas en laactualidad) no ha sido suficiente para poner en duda la factibilidad de esesueño. La verdad es que, a lo largo del tiempo, hay bastantes actividadeshumanas supuestamente inteligentes (como jugar al ajedrez) que han ido cayendobajo el dominio de los computadores. Pero por una reacción comprensible, sueleocurrir que esas actividades, una vez dominadas por programas informáticos, yano nos parecen tan inteligentes. Existe incluso una definición de ''inteligencia artificial'' basada en ello, quepodemos considerar ''irónica'', pues suintención no es seria, pero que encierra un fondo de verdad: ''inteligencia artificial'' sería '''todo aquello que todavía no sabemos hacercon un ordenador'''. Como el horizonte, la ''inteligenciaartificial ''de verdad parece alejarse de nosotros a medida que nos movemoshacia ella.
Esta entrada pretendeofrecer al lector una visión actualizada de la inteligencia artificial, en susdos acepciones de ''inteligencia artificialdébil ''(la que ya tenemos y está a nuestro alcance) y de ''inteligencia artificial fuerte ''(laconstrucción y programación de máquinas tan inteligentes como nosotros o más),junto con una revisión de las diversas posturas filosóficas respecto a lacuestión de si este objetivo será factible, o por el contrario no será posible
conseguirlo.
'''1. Definición de la inteligencia
artificial'''
La ==Definición de la inteligencia artificiales una de las ramas más antiguas de la investigación en programación deordenadores. Casi desde el principio de su historia, se han construidoprogramas que se comportan de un modo que, cuando los seres humanos hacen lomismo, solemos calificar de inteligente. Sin embargo, los avances en esta áreano han sido constantes, pues se han visto sometidos a altibajos. Además, losinvestigadores no siempre se ponen de acuerdo en la definición de esta rama dela informática, por lo que no es fácil distinguir de forma clara y unívoca lasdisciplinas y aplicaciones que pertenecen a este campo.==
Algunas La inteligencia artificial es una de lasdefiniciones del campo ramas más antiguas de la inteligencia artificial son claramenteinsatisfactoriasinvestigación en programación de ordenadores. Así John McCarthyCasi desde el principio de su historia, se han construido programas que acuñó el nombre se comportan de la disciplinaun modo que, cuando los seres humanos hacen lo mismo, ladefine así: ''ciencia e ingeniería para lafabricación solemos calificar de máquinas inteligentesinteligente. Sin embargo, especialmente programas los avances en esta área no han sido constantes, pues se han visto sometidos a altibajos. Además, los investigadores no siempre se ponen de ordenadorinteligentes'' (McCarthy 2007). El problema acuerdo en la definición de las definiciones esta rama de este tipoes la informática, por lo que no se define lo es fácil distinguir de forma clara y unívoca las disciplinas y aplicaciones que quiere decir ''inteligente''pertenecen a este campo.
Una definiciónparecidaAlgunas de las definiciones del campo de la inteligencia artificial son claramente insatisfactorias. Así John McCarthy, bastante extendidaque acuñó el nombre de la disciplina, es estala define así: ''estudioy diseño ciencia e ingeniería para la fabricación de agentes máquinas inteligentes, especialmente programas de ordenador inteligentes'' (Nilsson 1998, Legg McCarthy 2007), donde un ''agente inteligente'' se define como ''un ente que percibe su entorno y realizaacciones que le permiten alcanzar sus objetivos con . El problema de las máximas posibilidadesdefiniciones de éxito''. Aquí el problema este tipo es que no se define lo que significa el quiere decir ''éxito en alcanzar sus objetivosinteligente''.
La siguiente Una definiciónparecida, bastante extendida, es esta: ''estudio y diseño de la inteligencia artificial está bastante aceptadaagentes inteligentes'' (Nilsson 1998, Legg 2007), al menos para donde un ''agente inteligente'' se define como ''un ente que percibe su entorno y realiza acciones que le permiten alcanzar sus objetivos con las máximas posibilidades de éxito''. Aquí el problema es que no se define lo que seha hecho hasta ahora significa el ''éxito en este campo: alcanzar sus objetivos''.
'''Definición1:''' ''Llamamos''La siguiente definición de la inteligencia artificial'' está bastante aceptada, al conjuntode técnicas menos para lo que tratan de resolver problemas relacionados con el proceso deinformación simbólica, utilizando para ello métodos heurísticos''.se ha hecho hasta ahora en este campo:
No es nuevo que lainformación contenida en la memoria de un ordenador puede ser simbólica, peroen las aplicaciones de '''Definición 1:''' ''Llamamos'' inteligencia artificial, en las que intentamos (enprincipio) que la máquina razone de forma parecida ''al hombre, la informaciónque se procesa será a menudo equiparable a ideas o conocimientos y sólo podrárepresentarse conjunto de forma simbólica. Esto no significa técnicas que no pueda haberinformación numérica en una aplicación tratan de inteligencia artificial. Por resolver problemas relacionados con el contrario,aparece frecuentemente. Pero así como en la programación clásica puede ocurrir quetoda o casi toda la proceso de información procesada por una aplicación determinada seanuméricasimbólica, en inteligencia artificial generalmente esto no es admisible. Lainformación simbólica tiene que estar presente de alguna manerautilizando para ello métodos heurísticos''.
En los problemas de inteligenciaartificial No es frecuente nuevo que se utilicen métodos la información contenida en la memoria de búsqueda de soluciones un ordenador puede ser simbólica, pero en unespacio las aplicaciones de configuración más o menos grandeinteligencia artificial, con objeto en las que intentamos (en principio) que la máquina razone de encontrar un métodoóptimo (o forma parecida al menos cuasi-óptimo) para obtener el objetivo deseado. A veces hombre, la información que serealizan búsquedas exhaustivas, procesa será a menudo equiparable a lo ancho ideas o en profundidad, que analizan todaslas posibilidades conocimientos y escogen, entre ellas, la mejorsólo podrá representarse de forma simbólica. Pero Esto no significa que no pueda haber información numérica en general, si una aplicación de inteligencia artificial. Por elproceso es complejocontrario, el espacio de configuración es desmesurado y los métodosexhaustivos no son factibles, pues se producirá una ''explosión combinatoria'' aparece frecuentemente. Pero así como en la programación clásica puede ocurrir que el número de caminos crece enormemente,desbordando toda o casi toda la capacidad de cálculo de los ordenadores actualesinformación procesada por una aplicación determinada sea numérica, e incluso en inteligencia artificial generalmente esto no es admisible. La información simbólica tiene que estar presente detodos los ordenadores posiblesalguna manera.
En la práctica, hay los problemas de inteligencia artificial es frecuente queutilizar se utilicen métodos de búsqueda de soluciones en un espacio de configuración más rápidos o menos grande, con objeto de encontrar un método óptimo (o al menos cuasi-óptimo) para obtener el objetivo deseado. A veces se realizan búsquedas exhaustivas, a lo ancho o en profundidad, que lleven en poco tiempo a una soluciónaceptableanalizan todas las posibilidades y escogen, entre ellas, aunque no sea precisamente la óptimamejor. Estos métodosPero en general, si el proceso es complejo, que se apoyangeneralmente en información procedente el espacio de la experienciaconfiguración es desmesurado y los métodos exhaustivos no son factibles, pues se llaman por ello producirá una ''heurísticosexplosión combinatoria'' e incorporan estrategias en la quelimitan drásticamente el número de caminos crece enormemente, desbordando la búsquedacapacidad de cálculo de los ordenadores actuales, permitiendo encontrar una solución razonablepara un problema, a pesar e incluso de que el espacio de búsqueda sea muy extensotodos los ordenadores posibles.
De acuerdo con En ladefinición 1práctica, hay que utilizar métodos más rápidos que lleven en poco tiempo a una aplicación solución aceptable, aunque no sea precisamente la óptima. Estos métodos, que se apoyan generalmente en información procedente de inteligencia artificial tiene la experiencia, se llaman por ello ''heurísticos'' e incorporan estrategias que cumplir lascondiciones siguientes:limitan drásticamente la búsqueda, permitiendo encontrar una solución razonable para un problema, a pesar de que el espacio de búsqueda sea muy extenso.
<!--[if !supportLists]-->·                   <!--[endif]-->Que al menos parte De acuerdo con la definición 1, una aplicación dela información a tratar tenga carácter simbólico.inteligencia artificial tiene que cumplir las condiciones siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->* Que el problema al menos parte de la información aresolver dé lugar a un espacio de búsqueda de soluciones (espacio deconfiguración) muy extenso, que no se trate de un problema trivial, que no seaposible resolverlo con una simple búsqueda exhaustivatratar tenga carácter simbólico.
<!--[if !supportLists]-->·                   <!--[endif]-->* Que la forma máspráctica de abordar el problema sea la utilización a resolver dé lugar a un espacio de búsqueda de soluciones (espacio de reglas heurísticasbasadas en la experienciaconfiguración) muy extenso, que acorten el proceso no se trate de un problema trivial, que no sea posible resolverlo con una simple búsqueda de soluciones yeviten la explosión combinatoriaexhaustiva.
<!--[if !supportLists]-->·                   <!--[endif]-->En principio, * Que la forma más práctica de abordar elprograma debería ser capaz problema sea la utilización de extraer esas reglas heurísticas de su propiabasadas en la experiencia, es decir, debe ser capaz de aprender. Para ello se pueden utilizartécnicas como que acorten el reconocimiento proceso de patrones (Bishop 2006), las cadenas búsqueda deMarkov (Norris 1998) o los algoritmos genéticos (Goldberg 1989), que en sí no sereducen a soluciones y eviten la inteligencia artificial, pues pueden aplicarse en muchos otroscampos, pero pueden ser útiles también en esteexplosión combinatoria.
Es preciso distinguir* En principio, el programa debería ser capaz de extraer esas reglas heurísticas de su propia experiencia, es decir, debe ser capaz de aprender. Para ello se pueden utilizar técnicas como el reconocimiento de patrones (Bishop 2006), las cadenas de Markov (Norris 1998) o los algoritmos genéticos (Goldberg 1989), que en sí no se reducen a la inteligencia artificial de otras tecnologías menos potentes, como lassiguientes:pues pueden aplicarse en muchos otros campos, pero pueden ser útiles también en este.
<!--[if !supportLists]-->·                   <!--[endif]-->''Inteligenciacomputacional'': es una versión ''light'' de Es preciso distinguir la inteligencia artificial, quemaneja datos esencialmente numéricos, de los que es capaz de ectraer patronesutilizando conocimientos otras tecnologías menos completos y exactos que los de potentes, como las aplicacionesde inteligencia artificial (Siddique 2013).siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->* ''Sistemasbio-inspiradosInteligencia computacional'': son sistemas informáticos para es una versión ''light'' de laresolución inteligencia artificial, que maneja datos esencialmente numéricos, de los que es capaz de problemas complejos extraer patrones utilizando conocimientos menos completos y exactos que se inspiran en conceptos biológicos, comola evolución (algoritmos genéticos) o el ADN los de las aplicaciones de inteligencia artificial (computación mediante ADNSiddique 2013). Nopueden considerarse inteligentes.
* ''Sistemas bio-inspirados'1': son sistemas informáticos para la resolución de problemas complejos que se inspiran en conceptos biológicos, como la evolución (algoritmos genéticos) o el ADN (computación mediante ADN).1No pueden considerarse inteligentes.Las dos acepciones de la inteligencia artificial'''
En lo que sí están de
acuerdo todos los investigadores es en que los programas de inteligencia
artificial actuales no permiten atribuir a las computadoras la capacidad de
pensar y de actuar con verdadera inteligencia, en oposición a la apariencia de
inteligencia, que obviamente es más fácil de conseguir. Por eso, el campo de la
inteligencia artificial se divide en dos, uno que existe realmente, y el otro
que de momento sólo es un objetivo inalcanzable, mejor o peor definido desde el
punto de vista filosófico. Esos dos campos son los siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->''Inteligenciaartificial débil'', que abarca todas lasaplicaciones ===Las dos acepciones de las que disponemos hasta ahora, en las que la máquina actúa conapariencia de inteligencia, pero está claro que no piensa. artificial===
<!--[if !supportLists]-->·                   <!--[endif]-->''InteligenciaEn lo que sí están de acuerdo todos los investigadores es en que los programas de inteligencia artificial fuerte'', que abarca actuales no permiten atribuir a lashipotéticas máquinas programadas cuya computadoras la capacidad de pensar y de actuar con verdadera inteligencia fuese comparable o superior, en oposición a la humanaapariencia de inteligencia, que obviamente es más fácil de conseguir. Por eso, el campo de la inteligencia artificial se divide en dos, uno que existe realmente, y el otro que de momento sólo es un objetivo inalcanzable, mejor o peor definido desde el punto de vista filosófico.Esos dos campos son los siguientes:
* '''2.Inteligencia artificial débil''', que abarca todas las aplicaciones de las que disponemos hasta ahora, en las que la máquina actúa con apariencia de inteligencia, pero está claro que no piensa.
Todo lo que se halogrado hasta ahora en este campo es claramente * ''inteligencia Inteligencia artificial débilfuerte''. Esto es lo , que nos va abarca a ocupar enesta parte del artículo. Últimamente se habla mucho de que la ''las hipotéticas máquinas programadas cuya inteligencia artificial fuerte'' está fuese comparable o superior apunto de conseguirse. En la tercera parte volveremos sobre este problema yanalizaremos esas prediccioneshumana.
'''2.1.
Breve historia de la inteligencia artificial'''
Desde la más remotaantigüedad, el hombre no ha dejado de buscar medios para disminuir el esfuerzo necesariopara la realización de su trabajo. El primer paso en esta dirección se dio haceunos dos millones de años, con la invención de las armas y las herramientas. Elsegundo, hace al menos setecientos mil años, se plasmó en el dominio del fuego.Otro paso importante (la revolución neolítica) tuvo lugar hace unos diez milaños, con el comienzo de la agricultura y la ganadería. El ganado se utilizódesde el principio como un nuevo tipo de herramienta que permitía a su poseedorrealizar más trabajo con menos esfuerzo. El cuarto paso trascendental fue lainvención de la escritura, que tuvo lugar hace cosa de cinco mil años y abriópaso al arte literario y a la posibilidad de guardar información fuera de nuestrocerebro y de nuestro cuerpo, en papiro, pergamino, papel, etcétera.==Inteligencia artificial débil==
Hace un poco más de doscientosaños comenzó una nueva revolución tecnológica, la revolución industrial, cuyasposibilidades aún no Todo lo que se han agotadoha logrado hasta ahora en este campo es claramente ''inteligencia artificial débil''. En sus primeras fases, los siglos XVIII,XIX y la primera mitad Esto es lo que nos va a ocupar en esta parte del XX, esta revolución eliminó a los animales-herramientaartículo. Últimamente se habla mucho de que habían dominado la tecnología durante casi diez milenios, que fueronsustituidos por máquinas mecánicas propulsadas por fuentes ''inteligencia artificial fuerte'' está a punto de energía nuevas,como la térmica, la eléctrica, conseguirse. En la química de los combustibles naturales tercera parte volveremos sobre este problema y, yaen el siglo XX, la nuclear, cuya existencia ni se sospechaba a finales del sigloXIXanalizaremos esas predicciones.
Hacia la segunda mitad
del siglo XX apareció un nuevo tipo de máquinas, las computadoras electrónicas,
que ya no tratan de complementar el esfuerzo físico humano y extender el campo
de acción de sus miembros. Su ámbito de aplicación es amplificar las
actividades mentales del hombre. Estas máquinas realizan cálculos complejos a
velocidades muy superiores a las nuestras, aunque suele decirse que son
rígidas, que hay que preverlo todo y especificarlo claramente, porque en caso
contrario nos encontraremos con resultados inesperados. Muy pocos programas exhiben
un comportamiento que se pueda calificar de inteligente.
Casi desde el principiode la ===Breve historia de la informática fue posible programar computadoras para actuarde una forma que sí suele considerarse inteligente. En 1956, Herbert Gelernter,del Laboratorio de IBM en Poughkeepsie, construyó un programa capaz de resolverteoremas de geometría plana, sorprendente para su época, que se considera unode los primeros ejemplos de inteligencia artificial. Recuérdese que lascomputadoras pertenecían entonces a la primera generación y estaban construidascon válvulas de vacío. ===
Ante este ejemplo yotros parecidos que surgieron por entoncesDesde la más remota antigüedad, los pioneros el hombre no ha dejado de buscar medios para disminuir el esfuerzo necesario para la inteligencia artificialrealización de su trabajo. El primer paso en esta dirección se dio hace unos dos millones de años,encabezados por John McCarthy (1927-2011)con la invención de las armas y las herramientas. El segundo, hace al menos setecientos mil años, se reunieron en un seminario plasmó en elDartmouth College de Hanover dominio del fuego. Otro paso importante (USAla revolución neolítica). Además tuvo lugar hace unos diez mil años, con el comienzo de imponer nombre a la nuevadisciplina (''inteligencia artificial'')lanzaron las campanas al vuelo y predijeron que en una década habría programascapaces de traducir perfectamente entre dos lenguas humanas agricultura y la ganadería. El ganado se utilizó desde el principio como un nuevo tipo de jugar alajedrez mejor herramienta que el campeón del mundopermitía a su poseedor realizar más trabajo con menos esfuerzo. Esto no sería más que el primer El cuarto paso.Pronto sería posible construir máquinas capaces trascendental fue la invención de comportarse con inteligenciaigual o superior a la nuestraescritura, con lo que entraríamos en una nueva vía en tuvo lugar hace cosa de cinco mil años y abrió paso al arte literario y a laevolución posibilidad de nuestra sociedad. El viejo sueño guardar información fuera de nuestro cerebro y de construir hombres artificialesse habría hecho realidadnuestro cuerpo, en papiro, pergamino, papel, etcétera.
Pero las cosas Hace un poco más de doscientos años comenzó una nueva revolución tecnológica, la revolución industrial, cuyas posibilidades aún nosucedieron como aquellos optimistas preveíanse han agotado. Es cierto que ese mismo año ArthurSamuelEn sus primeras fases, los siglos XVIII, de IBMXIX y la primera mitad del XX, construyó un programa para jugar esta revolución eliminó a las damas los animales-herramienta que guardabainformación sobre el desarrollo habían dominado la tecnología durante casi diez milenios, que fueron sustituidos por máquinas mecánicas propulsadas por fuentes de las partidas que jugaba y energía nuevas, como la utilizaba para modificarsus jugadas futuras (es decirtérmica, aprendía). En pocos añosla eléctrica, tras un númerosuficiente la química de partidaslos combustibles naturales y, el programa fue capaz de vencer a su creador y desempeñabaun papel razonable ya en los campeonatos oficiales. Pero el juego de las damas esincomparablemente menos complicado que el ajedrezsiglo XX, la nuclear, y pronto cuya existencia ni se vio que este ibasospechaba a ser un hueso bastante más duro de roerfinales del siglo XIX.
En los últimos años deHacia la década segunda mitad del siglo XX apareció un nuevo tipo de 1950máquinas, Alex Bernsteinlas computadoras electrónicas, que ya no tratan de IBM, construyó un programa capaz de jugaral ajedrez como un principiante, que fue aireado por la prensa como complementar el primerpaso hacia esfuerzo físico humano y extender el dominio campo de acción de sus miembros. Su ámbito de aplicación es amplificar las actividades mentales del ajedrez por hombre. Estas máquinas realizan cálculos complejos a velocidades muy superiores a las computadoras. Pero el objetivonuestras, aunque suele decirse que son rígidas, ganaral campeón del mundoque hay que preverlo todo y especificarlo claramente, o al menos desempeñar un buen papel porque en los torneos caso contrario nos encontraremos con jugadoreshumanos, se retrasaría más de 30 años respecto a la fecha previstaresultados inesperados. En cuanto ala traducción de textos entre dos lenguas naturales, también resultó mucho másdifícil de lo Muy pocos programas exhiben un comportamiento que se preveía, como se verá en el apartado siguientepueda calificar de inteligente.
El fracaso Casi desde el principio de laspredicciones la historia de los expertos provocó el desánimo la informática fue posible programar computadoras para actuar de los investigadores eninteligencia artificialuna forma que sí suele considerarse inteligente. En 1956, Herbert Gelernter, muchos del Laboratorio de los cuales se dedicaron a otras cosas. Elproblema se complicó IBM en 1969Poughkeepsie, cuando Marvin Minski y Seymour Papert (Minski1969) demostraron matemáticamente que las redes neuronales artificiales construyó un programa capaz de resolver teoremas de unao dos capas (perceptrones sin capa oculta)geometría plana, sorprendente para su época, con las que se venía investigandodesde los años cincuenta, no pueden realizar una función Booleana tan sencillacomo “o exclusivo” (la suma módulo 2). Esto sí se podía conseguir con una red sencillaconsidera uno de tres capas, pero los ordenadores primeros ejemplos de inteligencia artificial. Recuérdese que las computadoras pertenecían entonces no eran bastante rápidos nitenían bastante memoria para trabajar a la primera generación y estaban construidas con redes complejas válvulas de tres capasvacío.
Durante Ante este ejemplo y otros parecidos que surgieron por entonces, los añossetenta, el interés por pioneros de la inteligencia artificial , encabezados por John McCarthy (1927-2011), se renovó gracias reunieron en un seminario en el Dartmouth College de Hanover (USA). Además de imponer nombre a laaparición de los sistemas expertos. De nuevo se nueva disciplina (''inteligencia artificial'') lanzaron las campanas al vueloy se predijeron avances inmediatos demasiado ambiciosos. Arrastrado por estatendencia, que en una década habría programas capaces de traducir perfectamente entre dos lenguas humanas y de jugar al ajedrez mejor que el gobierno campeón del Japón puso en marcha a finales de los setenta mundo. Esto no sería más que el ''proyecto de la quinta generación'', cuyoobjetivo era ponerse en cabeza de la investigación informática mundial, desarrollandoen diez años (siempre en diez años) primer paso. Pronto sería posible construir máquinas capaces de ''pensar'' como los seres humanos, de comunicarse comportarse con nosotros eninteligencia igual o superior a la nuestra propia lengua, y de traducir perfectamente textos escritos con lo que entraríamos en inglés yuna nueva vía en japonés. Asustados por el proyecto, otros países lanzaron sus propiosprogramas la evolución de investigación, aunque buscaron objetivos algo menos ambiciososnuestra sociedad. Aprincipios El viejo sueño de los noventa, el proyecto japonés construir hombres artificiales se dio por finalizado con unrotundo fracasohabría hecho realidad.
Aunque con altibajos,Pero las cosas no siempre con resultados satisfactorios, los avances continuaron llegando enun goteo continuosucedieron como aquellos optimistas preveían. En 1997Es cierto que ese mismo año Arthur Samuel, 30 años después de lo previstoIBM, se cumplió por finconstruyó un programa para jugar a las damas que guardaba información sobre el objetivo desarrollo de las partidas que una máquina programada jugaba y la utilizaba para jugar al ajedrez venciera alcampeón del mundomodificar sus jugadas futuras (es decir, aprendía). En el 2016pocos años, otra máquina venció al campeón mundial tras un número suficiente de Gopartidas,uno el programa fue capaz de vencer a su creador y desempeñaba un papel razonable en los juegos más complejos que existencampeonatos oficiales. También ha avanzado mucho laconducción automática Pero el juego de vehículos (coches y aviones)las damas es incomparablemente menos complicado que el ajedrez, y pronto se anuncia vio que losprimeros coches sin conductor podrían estar en el mercado para el año 2020este iba a ser un hueso bastante más duro de roer.
'''2En los últimos años de la década de 1950, Alex Bernstein, de IBM, construyó un programa capaz de jugar al ajedrez como un principiante, que fue aireado por la prensa como el primer paso hacia el dominio del ajedrez por las computadoras.2Pero el objetivo, ganar al campeón del mundo, o al menos desempeñar un buen papel en los torneos con jugadores humanos, se retrasaría más de 30 años respecto a la fecha prevista.Aplicaciones En cuanto a la traducción de textos entre dos lenguas naturales, también resultó mucho más difícil de la inteligencia artificial débil'''lo que se preveía, como se verá en el apartado siguiente.
Existen muchasaplicaciones, completamente diferentes unas El fracaso de las predicciones de los expertos provocó el desánimo de otras, que suelen clasificarsecomo ''los investigadores en inteligencia artificial''. Enalgunas, muchos de los resultados han sido espectaculares y cuales se aproximan dedicaron a lo otras cosas. El problema se complicó en 1969, cuando Marvin Minski y Seymour Papert (Minski 1969) demostraron matemáticamente queentendemos intuitivamente por las redes neuronales artificiales de una máquina o dos capas (perceptrones sin capa oculta), con las que piensase venía investigando desde los años cincuenta, aunque cuando no pueden realizar una función Booleana tan sencilla como “o exclusivo” (la suma módulo 2). Esto sí se analizana fondo se ve que la supuesta inteligencia no era talpodía conseguir con una red sencilla de tres capas, que se trata pero los ordenadores deaplicaciones programadas entonces no muy diferentes de las que se utilizan en otroscampos eran bastante rápidos ni tenían bastante memoria para trabajar con redes complejas de la informáticatres capas.
Son muchos Durante los temas años setenta, el interés por la inteligencia artificial se renovó gracias a la aparición de los sistemas expertos. De nuevo se lanzaron las campanas al vuelo y se predijeron avances inmediatos demasiado ambiciosos. Arrastrado por esta tendencia, el gobierno del Japón puso enmarcha a finales de los que ha sido posible aplicar técnicas setenta el ''proyecto de inteligencia artificialla quinta generación'', cuyo objetivo era ponerse en cabeza de la investigación informática mundial, desarrollando en diez años (siempre en diez años) máquinas capaces de ''pensar'' como los seres humanos, de comunicarse con nosotros en nuestra propia lengua, hasta y de traducir perfectamente textos escritos en inglés y en japonés. Asustados por elpunto proyecto, otros países lanzaron sus propios programas de investigación, aunque buscaron objetivos algo menos ambiciosos. A principios de que este campo los noventa, el proyecto japonés se parece a dio por finalizado con un pequeño cajón de sastrerotundo fracaso. Veamos algunos:
<!--[if !supportLists]-->·                   <!--[endif]-->Algoritmos inteligentesAunque con altibajos, no siempre con resultados satisfactorios, los avances continuaron llegando en un goteo continuo. En 1997, 30 años después de lo previsto, se cumplió por fin el objetivo de que una máquina programada para jugar al ajedrez venciera al campeón del mundo. En el 2016, otra máquina venció al campeón mundial de Go, uno de los juegosmás complejos que existen. También ha avanzado mucho la conducción automática de vehículos (coches y aviones), y se anuncia que los primeros coches sin conductor podrían estar en el mercado para el año 2020.
<!--[if !supportLists]-->·                   
<!--[endif]-->Realización de razonamientos
lógicos
<!--[if !supportLists]-->·                   <!--[endif]-->Reconocimientoautomático ===Aplicaciones de la palabra habladainteligencia artificial débil===
<!--[if !supportLists]-->·                   <!--[endif]-->Proceso Existen muchas aplicaciones, completamente diferentes unas de textosescritosotras, que suelen clasificarse como ''inteligencia artificial''. En algunas, los resultados han sido espectaculares y se aproximan a lo que entendemos intuitivamente por una máquina que piensa, aunque cuando se analizan a fondo se ve que la supuesta inteligencia no era tal, que se trata de aplicaciones programadas no muy diferentes de las que se utilizan en otros campos de la informática.
<!--[if !supportLists]-->·                   <!--[endif]-->Reconocimiento Son muchos los temas en los que ha sido posible aplicar técnicas deimágenesinteligencia artificial, y vehículos automáticoshasta el punto de que este campo se parece a un pequeño cajón de sastre. Veamos algunos:
<!--[if !supportLists]-->·                   <!--[endif]-->Sistemas expertos* Algoritmos inteligentes para juegos
<!--[if !supportLists]-->·                   <!--[endif]-->Redes neuronalesartificiales* Realización de razonamientos lógicos
<!--[if !supportLists]-->·                   <!--[endif]-->Computación cognitiva ybases * Reconocimiento automático de conocimiento sobre el mundola palabra hablada
=== 2.2.1. Algoritmos inteligentes para juegos ===En 1997, 30 añosdespués * Proceso de lo previsto, una máquina dedicada de IBM (Deep Blue) consiguió porfin vencer al campeón del mundo de ajedrez (Garry Kasparov) en un torneo a seispartidas (Campbell 2002). Sólo un año antes, la victoria de Kasparov contra elmismo programa había sido clara. En años sucesivos, los programas para jugar alajedrez se han impuesto en torneos mixtos, como los dos ''Campeonatos Mundiales del Hombre contra la Máquina'' celebrados enBilbao en 2004 y 2005 (Chess News 2004, 2005). En este caso, los tres programasse ejecutaron sobre máquinas comerciales y ganaron a los tres jugadores humanosde alta calificación por 8,5 a 3,5 en 2004, y por 8 a 4 en 2005. textos escritos
Además del ajedrez, tambiénse ha resuelto favorablemente la programación * Reconocimiento de otros juegos, como elbackgammon o chaquete (Tesauro 1989), las damas (Schaeffer 2007), Jeopardy! (Ferrucci2010), ciertas formas del póker (Bowling 2015) imágenes y el Go (BBC News Online 2016).vehículos automáticos
Sin embargo, los mismosautores de estos programas reconocen que, aunque sean capaces de ganar torneos,sus programas no son especialmente inteligentes. Ganan porque son más rápidosque los seres humanos y analizan un número inmenso de posibilidades, pero noutilizan la intuición como los campeones humanos, que saben dirigir susesfuerzos hacia las líneas de ataque prometedoras, eludiendo las que no lo son.En este contexto, se ha llegado a decir que ''DeepBlue'' es capaz de ganar al ajedrez sin comprender el ajedrez (Hawkins 2004, 18).* Sistemas expertos
'''2.2.2.Realización de razonamientos lógicos'''* Redes neuronales artificiales
Existen tres formasprincipales * Computación cognitiva y bases de razonamiento humano:conocimiento sobre el mundo
<!--[if !supportLists]-->·               
<!--[endif]-->'''     Deducción''':
es el método que más se aplica en las matemáticas. Proporciona una fiabilidad
absoluta, pues si las premisas son correctas, la conclusión también tiene que
serlo.
<!--[if !supportLists]-->·               <!--[endif]-->'''     Inducción''':es el método que más se aplica en las ciencias de la naturaleza (la física, laquímica y algunas ramas de la biología). No proporciona fiabilidad absoluta,pero a medida que los resultados se confirman con experimentos independientes,su fiabilidad aumenta de forma considerable. Sin embargo, siempre queda unmargen de inseguridad, pues queda abierta la posibilidad de que el próximoexperimento que se realice contradiga la conclusión, por lo que se suele decirque en estas ciencias los descubrimientos son siempre provisionales (Popper1962). ====Algoritmos inteligentes para juegos====
<!--[if !supportLists]-->·               <!--[endif]-->En 1997, 30 años después de lo previsto, una máquina dedicada de IBM (Deep Blue) consiguió por fin vencer al campeón del mundo de ajedrez (Garry Kasparov) en un torneo a seis partidas (Campbell 2002). Sólo un año antes, la victoria de Kasparov contra el mismo programa había sido clara. En años sucesivos, los programas para jugar al ajedrez se han impuesto en torneos mixtos, como los dos ''Campeonatos Mundiales del Hombre contra la Máquina'     Abducción''':es el método que más se emplea celebrados en Bilbao en las ciencias humanas2004 y 2005 (Chess News 2004, 2005). En este caso, la historia los tres programas se ejecutaron sobre máquinas comerciales y algunasramas ganaron a los tres jugadores humanos de la biologíaalta calificación por 8, como la paleontología. Es el que proporciona menos fiabilidad5 a 3,pues consiste 5 en inferir la hipótesis más sencilla que explique lasobservaciones. Para ello se establecen paralelos entre objetos, comportamientoso afirmaciones diferentes2004, y se busca documentación que los confirme, aunquepor acumulación de indicios su fiabilidad puede llegar 8 a ser grande (Alfonseca2015)4 en 2005.
Durante los años 60 y70Además del ajedrez, el problema de programar ordenadores para que realicen deducciones lógicastambién se resolvió satisfactoriamente. Como consecuencia ha resuelto favorablemente la programación de estos estudiosotros juegos, se llegó ala conclusión de que el funcionamiento deductivo de la mente humana no es tancomplicado como a primera vista parece, lo que tampoco fue una gran novedad,pues ya Aristóteles, en el siglo III antes de Cristobackgammon o chaquete (Tesauro 1989), había reducido losprocesos de deducción a diecinueve formas elementales o silogismos. Primero seconstruyeron programas capaces de demostrar teoremas las damas (Loveland 1978Schaeffer 2007). Pocodespués, un programa que sólo tenía 165 instrucciones Jeopardy! (Alfonseca 1975Ferrucci 2010) pudo resolvercorrectamente los diecinueve silogismos clásicos. Para ello, ciertas formas del póker (Bowling 2015) y en síntesis, elprograma convertía las proposiciones lógicas en relaciones de teoría deconjuntos y aplicaba reglas de reducción propias de este campo de lasmatemáticasGo (BBC News Online 2016).
En cambioSin embargo, los mismos autores de estos programas reconocen que, aunque sean capaces de ganar torneos, es mucho sus programas no son especialmente inteligentes. Ganan porque son másdifícil programar rápidos que los seres humanos y analizan un número inmenso de posibilidades, pero no utilizan la intuición como los campeones humanos, que saben dirigir sus esfuerzos hacia las computadoras para que realicen procesos líneas de razonamientoinductivo o abductivoataque prometedoras, por eludiendo las que no lo son. En este contexto, se ha llegado a decir que estos campos ''Deep Blue'' es capaz de la investigación eninteligencia artificial continúan abiertosganar al ajedrez sin comprender el ajedrez (Hawkins 2004, 18).
'''2.2.3.
Reconocimiento automático de la palabra hablada'''
En este campo se haavanzado bastante desde los años setenta (Faundez 2000, Jurafsky 2008). Setrata ====Realización de conseguir que los ordenadores entiendan la voz humana, para que sea posibledarles órdenes de forma más natural, sin tener que utilizar una máquina deescribir eléctrica o un teletipo.razonamientos lógicos====
La investigación eneste campo encontró dificultades en el hecho de que cada persona tiene supropia forma de pronunciar, ligeramente diferente de la de los demás, y en queel lenguaje hablado es más ambiguo que el escrito, pues a la existencia depalabras homófonas se suma el problema Existen tres formas principales de que las palabras se funden unas conotras y se concatenan, resultando a veces difícil separarlas. Por esta razón,las primeras aplicaciones de proceso de voz ponían restricciones a las frasesque son capaces de entender. Esas restricciones pertenecían a los tres grupossiguientesrazonamiento humano:
<!--[if !supportLists]-->·                   <!--[endif]-->            Tamaño del diccionario* '''Deducción''': número de palabras es el método que elprograma es capaz de comprendermás se aplica en las matemáticas. Proporciona una fiabilidad absoluta, pues si las premisas son correctas, la conclusión también tiene que serlo.
<!--[if !supportLists]-->·                   <!--[endif]-->Separación * '''Inducción''': es el método que más se aplica en las ciencias de la naturaleza (la física, la química y algunas ramas de laspalabras: algunos programas exigen la biología). No proporciona fiabilidad absoluta, pero a medida que los resultados se confirman con experimentos independientes, su fiabilidad aumenta de forma considerable. Sin embargo, siempre queda un margen de inseguridad, pues queda abierta la posibilidad de que el próximo experimento que se realice contradiga la persona conclusión, por lo que se suele decir que habla pronuncie lasfrases separando claramente las palabras entre síen estas ciencias los descubrimientos son siempre provisionales (Popper 1962).
<!--[if !supportLists]-->·                   <!--[endif]-->Existencia de una fase* '''Abducción''': es el método que más se emplea en las ciencias humanas, la historia y algunas ramas de educación del programa para adaptarse a la voz de una persona concretabiología, como la paleontología. Es el queserá la única a proporciona menos fiabilidad, pues consiste en inferir la hipótesis más sencilla que normalmente podrá entenderexplique las observaciones. Esta educación es un procesolaboriosoPara ello se establecen paralelos entre objetos, comportamientos o afirmaciones diferentes, pues a menudo exige y se busca documentación que la persona que va los confirme, aunque por acumulación de indicios su fiabilidad puede llegar a utilizar el programatenga que pronunciar al menos una vez todas las palabras del diccionarioser grande (Alfonseca 2015).
Las mejoresaplicaciones sólo exigían una o dos Durante los años 60 y 70, el problema de las restricciones anterioresprogramar ordenadores para que realicen deducciones lógicas se resolvió satisfactoriamente. O bien seutilizan diccionarios Como consecuencia de 2000 palabrasestos estudios, o se exige llegó a la separación conclusión de que el funcionamiento deductivo de palabrasla mente humana no es tan complicado como a primera vista parece, lo que tampoco fue una gran novedad, pues ya Aristóteles, ampliandoen el diccionario hasta 20siglo III antes de Cristo, había reducido los procesos de deducción a diecinueve formas elementales o silogismos. Primero se construyeron programas capaces de demostrar teoremas (Loveland 1978).000 términosPoco después, un programa que sólo tenía 165 instrucciones (Alfonseca 1975) pudo resolver correctamente los diecinueve silogismos clásicos. A menudo se alcanzaban grados Para ello, y en síntesis, el programa convertía las proposiciones lógicas en relaciones de teoría de conjuntos y aplicaba reglas de reducción propias de comprensiónsuperiores al 90 por 100 este campo de las palabras pronunciadasmatemáticas.
Actualmente se utilizanaplicaciones En cambio, es mucho más robustas, sin difícil programar las restricciones indicadas (Dong Yu 2015). Lasempresas computadoras para que se especializan en proceso de voz (Google, Microsoft, Nuance)aprovechan la enorme cantidad realicen procesos de datos existentes para entrenar susaplicaciones con muchas personas diferentes. Googlerazonamiento inductivo o abductivo, por ejemplo, utiliza paraello el gran número lo que estos campos de peticiones por voz que su buscador recibe cada díala investigación en inteligencia artificial continúan abiertos.
'''2.2.4.
Proceso de textos escritos'''
La investigación enproceso ====Reconocimiento automático de textos se subdivide en dos áreas principales: proceso del lenguajenatural (Powers 1989, Manning 1999, Jurafsky 2008) y traducción automática(Hutchins 1992).la palabra hablada====
Nuestras lenguasadolecen En este campo se ha avanzado bastante desde los años setenta (Faundez 2000, Jurafsky 2008). Se trata de ambigüedadconseguir que los ordenadores entiendan la voz humana, tanto pragmática (cuando las dos personas para que hablan nocomparten el mismo contexto)sea posible darles órdenes de forma más natural, semántica (una misma palabra puede sin tener variossignificados, que suelen ser distintos en lenguas diferentes) como sintáctica(en utilizar una frase, la misma palabra puede desempeñar diversos papeles sintácticos)máquina de escribir eléctrica o un teletipo.
Se ha hablado mucho La investigación en este campo encontró dificultades en el hecho deque cada persona tiene su propia forma de pronunciar, ligeramente diferente de la de los ordenadores del porvenir podrían programarse demás, y en que el lenguaje natural(castellano, inglés...) Actualmente esto hablado es una utopíamás ambiguo que el escrito, aunque es posible daral usuario pues a la impresión existencia de palabras homófonas se suma el problema de que las palabras se está comunicando en su lengua funden unas con elprograma. Esto otras y se consigueconcatenan, generalmenteresultando a veces difícil separarlas. Por esta razón, las primeras aplicaciones de proceso de voz ponían restricciones a las frases que son capaces de entender. Esas restricciones pertenecían a los tres maneras diferentesgrupos siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->Provocando la respuesta* Tamaño del usuario con preguntas prefabricadas y tratando diccionario: número de localizar palabrasseleccionadas en dicha respuesta, sin hacer mucho caso que el programa es capaz de la sintaxiscomprender.
<!--[if !supportLists]-->·                   <!--[endif]-->Restringiendo elsubconjunto del lenguaje natural * Separación de las palabras: algunos programas exigen que se puede utilizar, para eliminarambigüedadesla persona que habla pronuncie las frases separando claramente las palabras entre sí.
<!--[if !supportLists]-->·                   <!--[endif]-->Restringiendo el tema * Existencia de una fase de educación del programa para adaptarse a la voz deuna persona concreta, que será la conversaciónúnica a la que normalmente podrá entender. Esta educación es un proceso laborioso, pues a menudo exige que la persona que va a utilizar el programa tenga que pronunciar al menos una vez todas las palabras del diccionario.
Un campo relativamentereciente es la ''minería de datos'', cuyoobjetivo es extraer información de textos escritos y tratar Las mejores aplicaciones sólo exigían una o dos de comprender susignificado (Manning 2008)las restricciones anteriores. Para ello O bien se utilizan métodos estadísticos y diccionarios de 2000 palabras, o seconstruyen corpus anotados que proporcionan información sobre los distintostérminosexige la separación de palabras, estableciendo relaciones entre unos ampliando el diccionario hasta 20.000 términos y otros. Utilizandoestos ''corpora'' los programas mejoran oaceleran la A menudo se alcanzaban grados de comprensión superiores al 90 por 100 de los textos que deben interpretarlas palabras pronunciadas.
Para averiguar a qué serefiere un texto mediante análisis automático Actualmente se utilizan técnicas de ''resolución de entidades'', también llamada''desambiguación de entidades''aplicaciones más robustas, con sin lasrestricciones indicadas (Dong Yu 2015). Las empresas que se alcanza actualmente entre un 80 y un 90% especializan en proceso de identificaciones correctas.'' ''Un problema relacionado con este es voz (Google, Microsoft, Nuance) aprovechan la ''correferencia'', que trata enorme cantidad de deducirdatos existentes para entrenar sus aplicaciones con muchas personas diferentes. Google, enuna frase pronominalpor ejemplo, a qué sustantivo se refiere un pronombreutiliza para ello el gran número de peticiones por voz que su buscador recibe cada día.
En el campo de la
traducción automática, los problemas se multiplican, pues en este caso los
programas no tienen que enfrentarse con una sola lengua natural, sino con dos, ambas
plagadas de ambigüedades e irregularidades, que además no coinciden casi nunca
entre sí. Hacia finales de los años ochenta se propuso traducir primero las
frases de la lengua de partida a un sistema de representación interna
intermedio (Interlingua), que podría considerarse como una lengua artificial
desprovista de ambigüedades. Después, otra parte del programa traductor
trasladaría la traducción a Interlingua a una lengua diferente, utilizando las
reglas y peculiaridades de ésta. Así se aislarían las dos lenguas,
simplificando la traducción. Pero esta solución no ha llegado a implementarse.
Actualmente Google está trabajando en la utilización de redes neuronales (véase
la sección 2.2.7) para realizar traducciones directas entre dos lenguas
naturales diferentes (Sutskever 2014), sin pasar por una Interlingua. A menos
que se diga que el estado interno de la red neuronal es la Interlingua, aunque
se trataría de una lengua ''sui generis'',
pues no tendría gramática reconocible.
Otra posibilidad, quese adoptó en el proyecto ====Proceso de traducción automática EUROTRA, patrocinado por la UniónEuropea, y después en ''Google Translate'',no tiene como objetivo realizar una traducción perfecta de los textos departida, sino obtener una primera aproximación sobre la que un traductor humanopuede trabajar para mejorarla, lo que le permite aumentar considerablemente surendimiento (''traducción asistida porcomputadora'').escritos====
'''2.2.5.Reconocimiento La investigación en proceso de imágenestextos se subdivide en dos áreas principales: proceso del lenguaje natural (Powers 1989, Manning 1999, Jurafsky 2008) y vehículos automáticos'''traducción automática (Hutchins 1992).
El reconocimiento Nuestras lenguas adolecen deimágenes es otro de los campos en los ambigüedad, tanto pragmática (cuando las dos personas que se aplican técnicas de inteligenciaartificial. Cuando observamos hablan no comparten el mismo contexto), semántica (una escena a través de la vistamisma palabra puede tener varios significados, somos capaces deinterpretar la información que recibimos y separar suelen ser distintos en lenguas diferentes) como sintáctica (en una frase, la imagen en objetosindependientes bien identificados. Este campo de investigación intentaprogramar máquinas y robots para que reconozcan visualmente los elementos conlos que han de relacionarsemisma palabra puede desempeñar diversos papeles sintácticos).
Una Se ha hablado mucho de las aplicacionesmás espectaculares de la visión de máquinas es el coche sin conductor. Esteproyecto, bastante avanzado que los ordenadores del porvenir podrían programarse en la actualidad por parte de varias empresaslenguaje natural (castellano,especialmente Google (Fisher 2013inglés...), tiene por objeto construir vehículoscapaces de prescindir del conductor en el tráfico de las carreteras y lascalles de . Actualmente esto es una ciudad. Estas investigacionesutopía, que comenzaron en aunque es posible dar al usuario la UniversidadCarnegie Mellon durante los años ochenta (Jochem 1995), recibieron un fuerteimpulso durante los noventa, cuando en 1995 un coche sin conductor diseñado porErnst Dieter Dickmanns recorrió 1758 km por las autopistas alemanas llevando unconductor humano para casos impresión de emergencia, que tuvo que tomar se está comunicando en su lengua con el control un 5%del tiempo (Dickmanns 2007)programa. En lo que llevamos del siglo XXIEsto se consigue, la investigaciónen el campo del coche sin conductor ha seguido avanzandogeneralmente, y no parece lejano elmomento en que se autorice su comercialización.de tres maneras diferentes:
Algunas otrasaplicaciones avanzadas * Provocando la respuesta del usuario con preguntas prefabricadas y tratando de proceso localizar palabras seleccionadas en dicha respuesta, sin hacer mucho caso de imágenes:la sintaxis.
<!--[if !supportLists]-->·                   <!--[endif]-->''GooglePhotos'', una aplicación * Restringiendo el subconjunto del lenguaje natural que permite hacerbúsquedas en Internet basándose en imágenesse puede utilizar, en lugar de textospara eliminar ambigüedades.
<!--[if !supportLists]-->·                   <!--[endif]-->OCR (''Optical Character Recognition''),extracción * Restringiendo el tema de textos a partir de fotografías. Combinado con ''Google Translate'' (véase la sección2.2.4), permite además traducirlos a otros idiomasconversación.
<!--[if !supportLists]-->·                   <!--[endif]-->Un campo relativamente reciente es la ''Realidadaumentadaminería de datos'', campo que aún no ha alcanzadotodos sus objetivos, que intenta suplementar las percepciones cuyo objetivo es extraer información de textos escritos y tratar de los sentidoshumanos con información generada por un ordenador comprender su significado (imágenes, sonidos, o datosGPSManning 2008). Esto Para ello se conseguiría mediante cascosutilizan métodos estadísticos y se construyen corpus anotados que proporcionan información sobre los distintos términos, lentes estableciendo relaciones entre unos términos y otros. Utilizando estos ''corpora'' los programas mejoran o aceleran la comprensión de contacto o dispositivosparecidos a gafaslos textos que deben interpretar.
Para averiguar a qué se refiere un texto mediante análisis automático se utilizan técnicas de ''resolución de entidades'2', también llamada ''desambiguación de entidades'', con las que se alcanza actualmente entre un 80 y un 90% de identificaciones correctas.2.6.Sistemas expertos''''Un problema relacionado con este es la ''correferencia'', que trata de deducir, en una frase pronominal, a qué sustantivo se refiere un pronombre.
Una vez En el campo de la traducción automática, los problemas se multiplican, pues en este caso los programas no tienen que se comprobóenfrentarse con una sola lengua natural, sino con dos, ambas plagadas de ambigüedades e irregularidades, que además no era tan difícil conseguir que coinciden casi nunca entre sí. Hacia finales de los programas realizaran deduccioneslógicasaños ochenta se propuso traducir primero las frases de la lengua de partida a un sistema de representación interna intermedio (Interlingua), el camino estaba abierto hacia que podría considerarse como una aplicación práctica lengua artificial desprovista de ambigüedades. Después, otra parte del programa traductor trasladaría la inteligenciaartificial: los sistemas expertos (Nilsson 1998traducción a Interlingua a una lengua diferente, caputilizando las reglas y peculiaridades de ésta. 17.4)Así se aislarían las dos lenguas, simplificando la traducción. El primer intentoen Pero esta dirección lo realizaron hacia 1965 Edward Asolución no ha llegado a implementarse. Feigenbaum y JoshuaLederberg Actualmente Google está trabajando en la Universidad norteamericana utilización de Stanford redes neuronales (Feigenbaum 1983véase la sección 2.2.7). Setrataba de construir un programa capaz de para realizar deducciones inteligentes apartir de datos de análisis químico traducciones directas entre dos lenguas naturales diferentes (espectrogramas de masasSutskever 2014) para obtener lafórmula desarrollada de compuestos orgánicos desconocidos, sin pasar por una Interlingua. Después A menos que se diga que el estado interno de varios añosde trabajo, los investigadores terminaron con éxito el proyecto. Su programa, llamadoDENDRALla red neuronal es la Interlingua, aunque se utilizó durante décadas en universidades y laboratorios trataría de análisisde todo el mundouna lengua ''sui generis'', pues no tendría gramática reconocible.
Durante los añossetenta y ochentaOtra posibilidad, la investigación en sistemas expertos que se aplicó adoptó en camposmuy variados: diagnóstico médicoel proyecto de traducción automática EUROTRA, matemáticaspatrocinado por la Unión Europea, físicay después en ''Google Translate'', prospecciones minerasno tiene como objetivo realizar una traducción perfecta de los textos de partida, genética,fabricación automáticasino obtener una primera aproximación sobre la que un traductor humano puede trabajar para mejorarla, configuración automática de computadoras..lo que le permite aumentar considerablemente su rendimiento (''traducción asistida por computadora'').
 ====Reconocimiento de imágenes, y vehículos automáticos==== El reconocimiento de imágenes es otro de los campos en los que se aplican técnicas de inteligencia artificial. Cuando observamos una escena a través de la vista, somos capaces de interpretar la información que recibimos y separar la imagen en objetos independientes bien identificados. Este campo de investigación intenta programar máquinas y robots para que reconozcan visualmente los elementos con los que han de relacionarse. Una de las aplicaciones más espectaculares de la visión de máquinas es el coche sin conductor. Este proyecto, bastante avanzado en la actualidad por parte de varias empresas, especialmente Google (Fisher 2013), tiene por objeto construir vehículos capaces de prescindir del conductor en el tráfico de las carreteras y las calles de una ciudad. Estas investigaciones, que comenzaron en la Universidad Carnegie Mellon durante los años ochenta (Jochem 1995), recibieron un fuerte impulso durante los noventa, cuando en 1995 un coche sin conductor diseñado por Ernst Dieter Dickmanns recorrió 1758 km por las autopistas alemanas llevando un conductor humano para casos de emergencia, que tuvo que tomar el control un 5% del tiempo (Dickmanns 2007). En lo que llevamos del siglo XXI, la investigación en el campo del coche sin conductor ha seguido avanzando, y no parece lejano el momento en que se autorice su comercialización. Algunas otras aplicaciones avanzadas de proceso de imágenes: * ''Google Photos'', una aplicación que permite hacer búsquedas en Internet basándose en imágenes, en lugar de textos.  * OCR (''Optical Character Recognition''), extracción de textos a partir de fotografías. Combinado con ''Google Translate'' (véase la sección 2.2.4), permite además traducirlos a otros idiomas. * ''Realidad aumentada'', campo que aún no ha alcanzado todos sus objetivos, que intenta suplementar las percepciones de los sentidos humanos con información generada por un ordenador (imágenes, sonidos, o datos GPS). Esto se conseguiría mediante cascos, lentes de contacto o dispositivos parecidos a gafas.  ====Sistemas expertos==== Una vez que se comprobó que no era tan difícil conseguir que los programas realizaran deducciones lógicas, el camino estaba abierto hacia una aplicación práctica de la inteligencia artificial: los sistemas expertos (Nilsson 1998, cap. 17.4). El primer intento en esta dirección lo realizaron hacia 1965 Edward A. Feigenbaum y Joshua Lederberg en la Universidad norteamericana de Stanford (Feigenbaum 1983). Se trataba de construir un programa capaz de realizar deducciones inteligentes a partir de datos de análisis químico (espectrogramas de masas) para obtener la fórmula desarrollada de compuestos orgánicos desconocidos. Después de varios años de trabajo, los investigadores terminaron con éxito el proyecto. Su programa, llamado DENDRAL, se utilizó durante décadas en universidades y laboratorios de análisis de todo el mundo. Durante los años setenta y ochenta, la investigación en sistemas expertos se aplicó en campos muy variados: diagnóstico médico, matemáticas, física, prospecciones mineras, genética, fabricación automática, configuración automática de computadoras...  ¿Qué es un sistemaexperto y en qué se diferencia de los programas ordinarios? Mientras en estos elconocimiento se organiza en dos niveles, las instrucciones y los datos, en los
sistemas expertos hay tres componentes:
<!--[if !supportLists]-->·                   <!--[endif]-->* Un sistema deinferencia capaz de hacer deducciones lógicas sobre los datos de que dispone. * Un conjunto de reglas, utilizadas por el sistema de inferencia para realizar deducciones o acciones determinadas. * Los datos sobre el problema concreto que se quiere resolver. Uno de los primeros sistemas expertos fue MYCIN, que diagnosticaba enfermedades infecciosas del aparato circulatorio y recomendaba un tratamiento. Los datos del problema eran los síntomas del paciente, los resultados de sus análisis, y otras cuestiones clínicas que tuviesen que ver con su caso concreto. Las reglas de deducción que se utilizaban para realizar el diagnóstico y proponer el tratamiento se le proporcionaron a MYCIN durante su construcción, no las aprendía, siempre utilizaba las mismas reglas en todos los problemas que tenía que resolver. Por último, el sistema de inferencia era un programa capaz de aplicar las reglas a los datos para obtener conclusiones razonables. El conjunto de reglas de deducción de un sistema experto se llama su ''base de conocimientos''. Para representarlas suelen utilizarse ''reglas de producción'': expresiones de la forma '''SI condición ENTONCES acción'''. La especificación de las reglas evitando toda ambigüedad es el problema más importante con el que se enfrenta quien desee construir un sistema experto. El sistema de inferencia realiza búsquedas en el espacio de conocimientos y de datos. A menudo es imposible probar todas las posibilidades, pues su número es excesivo, por explosión combinatoria. Por eso existen diversos tipos de búsqueda: en ''anchura'', en  ''profundidad'', o ''heurística''. La última hace uso de información ''ad-hoc'' para decidir el camino a seguir. La búsqueda puede ser también ''hacia adelante'', partiendo del estado inicial y aplicando las reglas de deducción hasta llegar al objetivo, o ''hacia atrás'', partiendo del estado final y remontándose hasta los conocimientos existentes, aplicando a la inversa la información de la base de conocimientos. En un sistema experto resulta conveniente disponer de la posibilidad de hacer que explique sus deducciones. Cuando el sistema responde a una pregunta sobre un diagnóstico médico, por ejemplo, debe ser capaz de señalar cómo llegó a esa conclusión (qué reglas ha aplicado).  A partir de finales de los años ochenta, coincidiendo con el fracaso de la quinta generación japonesa, los sistemas expertos entraron en decadencia. Aunque no han desaparecido, hoy no desempeñan el papel principal en la investigación en inteligencia artificial.   ====Redes neuronales artificiales==== Esta es una de las aplicaciones más antiguas de la inteligencia artificial (Gurney 1997). También ha sido una de las más sometidas a exageraciones y previsiones insólitas. Son redes inspiradas en los sistemas nerviosos de los animales, formadas por muchas componentes interconectadas capaces de cierta actividad computacional. Las ''neuronas'' que componen estas redes están generalmente bastante simplificadas, en comparación con las que forman parte del sistema nervioso humano y de muchos animales. Se ha dicho que estas redes son capaces de resolver los problemas más difíciles que existen, en principio (los problemas NP-completos del tipo del viajante de comercio y otros equivalentes), que un ordenador normal sólo puede resolver en un tiempo que crece exponencialmente en función de la complicación del problema. Y hasta cierto punto es verdad, siempre que tengamos en cuenta que la solución obtenida no es necesariamente la óptima, sino tan sólo una aproximación, que muchas veces es suficiente para nuestras necesidades.
<!Las primeras redes neuronales fueron definidas por Warren McCullogh y Walter Pitts (McCulloch 1943). En la década siguiente, Frank Rosenblatt ideó el perceptrón (Rosenblatt 1958), una red neuronal de dos capas (capa de entrada y capa de salida), capaz de aprender qué respuesta debe corresponder a una entrada concreta. La investigación en este campo se estancó tras la publicación del artículo de Minski y Papert antes mencionado (Minski 1969), que demostró que un perceptrón de dos capas no es capaz de resolver la función ''o--[if !supportLists]-->·                   <!--[endif]-->Un conjunto exclusivo''. Algunos años más tarde, con la introducción de una tercera capa de neuronas en la red neuronal (situada entre las capas de entrada y de salida) y con la invención del algoritmo de reglaspropagación hacia atrás, utilizadaspor se resolvió el sistema problema de inferencia para realizar deducciones la función ''o acciones determinadas-exclusivo'' y la investigación en el campo de las redes neuronales volvió a avanzar.
<!--[if !supportLists]-->·                   <!--[endif]-->Los datos sobre elproblema concreto En la actualidad (Kruse 2013) se está trabajando en varias direcciones: a) La implementación de las redes neuronales mediante dispositivos de hardware que se quiere hacen uso de la nanotecnología, en lugar de simularlas en un ordenador. b) Nuevos algoritmos para resolver, mediante redes neuronales, problemas de ''reconocimiento de patrones'' y aprendizaje automático. c) Implementación de redes basadas en neuronas más complejas, inspiradas en las neuronas biológicas.
Uno de los primeros
sistemas expertos fue MYCIN, que diagnosticaba enfermedades infecciosas del
aparato circulatorio y recomendaba un tratamiento. Los datos del problema eran los
síntomas del paciente, los resultados de sus análisis, y otras cuestiones
clínicas que tuviesen que ver con su caso concreto. Las reglas de deducción que
se utilizaban para realizar el diagnóstico y proponer el tratamiento se le
proporcionaron a MYCIN durante su construcción, no las aprendía, siempre
utilizaba las mismas reglas en todos los problemas que tenía que resolver. Por
último, el sistema de inferencia era un programa capaz de aplicar las reglas a
los datos para obtener conclusiones razonables.
El conjunto ====Computación cognitiva y bases de reglasde deducción de un sistema experto se llama su ''base de conocimientos''. Para representarlas suelen utilizarse ''reglas de producción'': expresiones de laforma '''SI condición ENTONCES acción'''.La especificación de las reglas evitando toda ambigüedad es el problema másimportante con conocimiento sobre el que se enfrenta quien desee construir un sistema experto.mundo====
El sistema Uno deinferencia realiza búsquedas los problemas que han dificultado la investigación en inteligencia artificial ha sido el espacio hecho de que las computadoras apenas poseen conocimientos y de datos. Amenudo es imposible probar todas las posibilidadessobre el mundo que nos rodea, lo que les pone en desventaja evidente respecto a cualquier ser humano, que sí posee esa información, pues la ha adquirido desde su número es excesivo,por explosión combinatoria. Por eso existen diversos tipos infancia y puede utilizarla para resolver problemas de búsqueda: en ''anchura''sentido común que a nosotros nos parecen triviales, en  ''profundidad'',o ''heurística''. La última hace uso pero que son dificilísimos deinformación ''ad-hoc'' resolver para decidir elcamino a seguir. La búsqueda puede ser también ''hacia adelante'', partiendo del estado inicial y aplicando las reglasmáquinas que no disponen de deducción hasta llegar al objetivo, o ''haciaatrás'', partiendo del estado final y remontándose hasta los conocimientosexistentes, aplicando a la inversa la información de la base de conocimientosnecesaria.
En un sistema expertoresulta conveniente disponer Un primer paso en esa dirección podría ser Wolfram|Alpha (Wolfram 2012). Mientras los buscadores de Internet (como Google) reaccionan ante una pregunta proporcionando una serie de la posibilidad direcciones de hacer que explique susdeducciones. Cuando Internet donde el sistema responde lector puede (quizá) encontrar la respuesta a una su pregunta sobre un diagnósticomédico, por ejemploWolfram|Alpha intenta proporcionar directamente la respuesta, debe ser capaz extrayéndola de la información disponible en la web y de la que ha ido acumulando en su ''base de señalar cómo llegó conocimientos'' a esa conclusión (quéreglas ha aplicado)lo largo del tiempo.
A También en esta línea, IBM ha puesto en marcha un proyecto de computación cognitiva llamado DeepQA (IBM Research 2011), cuyo objetivo es construir una computadora (Watson) que, a partir de finales datos muy generales y abundantes ('''''big data''''') y utilizando técnicas delos años ochentainteligencia artificial y aprendizaje automático, coincidiendo con el fracaso sea capaz de la quinta generación japonesahacer predicciones e inferencias útiles,los sistemas expertos entraron en decadencia. Aunque no han desaparecido, hoy nodesempeñan el papel principal y de responder a preguntas expresadas en la investigación en inteligencia artificiallenguaje natural.
'''2Por el momento, estos sistemas no pueden ser tan generales como los seres humanos, y normalmente se restringen a uno o unos pocos campos de aplicación concretos.2.7.Redes neuronales artificiales'''
Esta es una de las
aplicaciones más antiguas de la inteligencia artificial (Gurney 1997). También
ha sido una de las más sometidas a exageraciones y previsiones insólitas. Son
redes inspiradas en los sistemas nerviosos de los animales, formadas por muchas
componentes interconectadas capaces de cierta actividad computacional. Las ''neuronas'' que componen estas redes están generalmente
bastante simplificadas, en comparación con las que forman parte del sistema
nervioso humano y de muchos animales. Se ha dicho que estas redes son capaces
de resolver los problemas más difíciles que existen, en principio (los
problemas NP-completos del tipo del viajante de comercio y otros equivalentes),
que un ordenador normal sólo puede resolver en un tiempo que crece
exponencialmente en función de la complicación del problema. Y hasta cierto
punto es verdad, siempre que tengamos en cuenta que la solución obtenida no es
necesariamente la óptima, sino tan sólo una aproximación, que muchas veces es
suficiente para nuestras necesidades.
Las primeras redesneuronales fueron definidas por Warren McCullogh y Walter Pitts (McCulloch1943). En la década siguiente, Frank Rosenblatt ideó el perceptrón (Rosenblatt1958), una red neuronal de dos capas (capa de entrada y capa de salida), capazde aprender qué respuesta debe corresponder a una entrada concreta. Lainvestigación en este campo se estancó tras la publicación del artículo deMinski y Papert antes mencionado (Minski 1969), que demostró que un perceptrón dedos capas no es capaz de resolver la función ''o-exclusivo''. Algunos años más tarde, con la introducción de unatercera capa de neuronas en la red neuronal (situada entre las capas de entraday de salida) y con la invención del algoritmo de propagación hacia atrás, seresolvió el problema de la función ''o-exclusivo''y la investigación en el campo de las redes neuronales volvió a avanzar.==Inteligencia artificial fuerte==
En El pasado de la actualidad (Kruse2013) se está trabajando inteligencia artificial ha estado sometido a numerosos altibajos, cuya causa quizá deba buscarse en varias direccionesel nombre mismo de la disciplina: a) La implementación de '''''Inteligencia artificial''''' sugiere con facilidad lasredes neuronales mediante dispositivos ideas de hardware '''''hombre artificial''''', o '''''el hombre igualado o superado por la máquina''''', que hacen uso pertenecen más bien a la controversia filosófica que a la tecnología informática. Estos términos están cargados de la nanotecnología,en lugar contenido emotivo y despiertan fuertes rechazos o adhesiones casi fanáticas. Desde mediados del siglo XX vemos continuamente que los medios de simularlas comunicación y algunos investigadores en un ordenador. binformática (no todos, desde luego) Nuevos algoritmos para resolver, medianteredes neuronales, problemas de lanzan las campanas al vuelo y anuncian que la ''reconocimientode patronesinteligencia artificial fuerte'' y aprendizaje automático. c) Implementación , la construcción de redes basadas enneuronas máquinas programadas tan inteligentes o más complejasque nosotros, está a punto de conseguirse. Sin duda, inspiradas todo avance nuevo en las neuronas biológicasinteligencia artificial es útil y valioso, pero se arriesga a verse despreciado, porque el listón está demasiado alto.
Para plantearse correctamente el problema, lo primero que habría que hacer es definir lo que se entiende por ''inteligencia humana''2.2  Y ahí precisamente nos encontramos con las primeras dificultades.8Sabemos que nuestra inteligencia está ligada de algún modo con el funcionamiento de nuestro cerebro, pero no sabemos cómo funciona nuestro cerebro.Computación cognitiva y bases En palabras de conocimiento sobre el mundo'''Jeff Hawkins:
Uno ''Antes de los problemasque han dificultado la investigación en inteligencia artificial ha sido elhecho tratar de construir máquinas inteligentes, tenemos que las computadoras apenas poseen conocimientos sobre comprender primero cómo piensa el mundo que nosrodeacerebro, lo que les pone y en desventaja evidente respecto a cualquier ser humanoeso no hay nada artificial.'' (Hawkins 2004,que sí posee esa información, pues la ha adquirido desde su infancia y puedeutilizarla para resolver problemas de sentido común que a nosotros nos parecentriviales, pero que son dificilísimos de resolver para las máquinas que nodisponen de la información necesaria4-5).
Un primer paso en esadirección podría ser Wolfram|Alpha (Wolfram 2012). Mientras los buscadores deInternet (como Google) reaccionan ante una pregunta proporcionando una serie dedirecciones de Internet donde el lector puede (quizá) encontrar la respuesta En un campo tan sujeto asu preguntacontroversia, Wolfram|Alpha intenta proporcionar directamente no nos puede extrañar que ni siquiera una cuestión tan primordial como la respuestaanterior sea aceptada por todos los investigadores. De hecho,extrayéndola de la información disponible en la web y hay muchos que opinan que el problema de la que ha idoacumulando en su ''base de conocimientosinteligencia artificial fuerte''a lo largo del tiempono tiene nada que ver con la biología y es puramente tecnológico.Pero, como dice Hawkins:
También en esta línea''Durante décadas, IBMha puesto en marcha un proyecto los científicos del campo de computación cognitiva llamado DeepQA (IBMResearch 2011), cuyo objetivo es construir la inteligencia artificial han sostenido que los computadores serán inteligentes cuando alcancen una computadora (Watson) quepotencia suficiente. Yo no lo creo, apartir de datos muy generales y abundantes ('''''big data'''explicaré por qué: los cerebros y las computadoras hacen cosas fundamentalmente diferentes.''(Hawkins 2004, 5) y utilizandotécnicas de inteligencia artificial y aprendizaje automático, sea capaz dehacer predicciones e inferencias útiles, y de responder a preguntas expresadasen lenguaje natural.
Por el momentoA pesar de todo, estossistemas no pueden ser Hawkins es optimista y piensa que las máquinas tan generales inteligentes como los seres humanos, y normalmente serestringen el hombre están a uno o unos pocos campos la vuelta de aplicación concretos.la esquina:
'''3¿Podremos construir máquinas inteligentes?... Sí. Podremos y lo haremos. En las próximas décadas veremos una rápida evolución en las capacidades de esas máquinas en direcciones interesantes.Inteligencia artificial fuerte'''(Hawkins 2004, 7).
El pasado de lainteligencia artificial ha estado sometido a numerosos altibajosEntre los que hacen predicciones optimistas destaca Ray Kurzweil, cuya causaquizá deba buscarse en el nombre mismo de la disciplina: '''''Inteligencia artificial'''''sugiere con facilidad las ideas de '''''hombre artificial''''', o '''''elhombre igualado o superado por la máquina''''', que pertenecen más bien a lacontroversia filosófica que a lleva décadas anunciando la tecnología informática. Estos términos están cargadosinminencia de contenido emotivo y despiertan fuertes rechazos o adhesiones casi fanáticas.Desde mediados del siglo XX vemos continuamente que los medios de comunicacióny algunos investigadores en informática (no todos, desde luego) lanzan lascampanas al vuelo y anuncian que la ''inteligenciaartificial fuerte'', la construcción de máquinas programadas tan inteligenteso más que nosotros, está a punto de conseguirse. Sin duda, todo avance nuevo eninteligencia artificial es útil y valioso, pero se arriesga a versedespreciado, porque el listón está demasiado alto.:
Para plantearsecorrectamente el problema, lo primero que habría que hacer es definir lo que seentiende por * En su libro ''inteligencia humanaLa era de las máquinas inteligentes''.  Y ahí precisamente nos encontramos con lasprimeras dificultades. Sabemos (Kurzweil 1990) parte de la base de que nuestra un programa de ordenador suficientemente avanzado exhibiría automáticamente inteligencia está ligada similar a la humana (justo lo que Hawkins niega en la segunda cita anterior). Algunas de algúnmodo con sus predicciones en este libro ya han sido falsadas, como el funcionamiento de nuestro cerebro, pero no sabemos cómo funcionanuestro cerebro''teléfono traductor'' para la primera década del siglo XXI. En palabras de Jeff Hawkins:
* En el libro ''AntesLa era de tratar de construir las máquinas espirituales'' (Kurzweil 1999) predice que las máquinas más inteligentes, tenemos que comprender primerocómo piensa los hombres serán el cerebro, y en eso no hay nada artificialresultado automático de la evolución de los computadores actuales durante un par de décadas. ''(Hawkins2004, 4-5)Sólo faltan cuatro años para que esta predicción quede asimismo falsada.
En un campo tan sujetoa controversia* Seis años después, no nos puede extrañar que ni siquiera una cuestión tanprimordial como la anterior sea aceptada por todos los investigadores. DehechoKurzweil publicó otro libro, hay muchos que opinan que el problema de la ''inteligencia artificialLa singularidad está cerca '' ''fuerte''no tiene nada (Kurzweil 2005), en el que afirma que ver con la biología confluencia de los avances de diversos campos (informática, robótica, genética y es puramente tecnológiconanotecnología darán lugar para 2045 a una singularidad tecnológica, un avance tan enorme que ya no seremos capaces de comprenderlo, lo que equivale a decir que seremos superados por nuestras máquinas para siempre. Pero, comodice Hawkins:
* Siete años después, Kurzweil publicó ''DurantedécadasCómo crear una mente: revelado el secreto del pensamiento humano'' (Kurzweil 2012), los científicos del campo en el que sostiene que una inteligencia artificial mayor que la humana podría crearse en breve (a fines de la década de 2020), simplemente profundizando algunas técnicas típicas de la inteligencia artificial han sostenidoque débil, como los computadores serán inteligentes cuando alcances una potencia suficiente.Yo no lo creo, modelos de Markov y explicaré por qué: los cerebros y las computadoras hacen cosasfundamentalmente diferentes.'' (Hawkins 2004, 5)algoritmos genéticos.
A pesar Kurzweil no sólo parece obsesionado por la inteligencia artificial fuerte, también lo está por el problema de todola inmortalidad humana, que ve también inminente (alguna vez la ha predicho para 2035),Hawkins es optimista y piensa porque cree que las máquinas tan inteligentes como en el hombrefondo ambos problemas están a estrechamente relacionados. Según él, la vuelta inmortalidad se alcanzará por la confluencia de la esquinatres caminos diferentes:
# Gracias a los avances de la medicina. Cuando los investigadores sean capaces de aumentar nuestra esperanza de vida un año cada año, seremos automáticamente inmortales. Desgraciadamente para Kurzweil, las predicciones de la ONU para el siglo XXI (United Nations 2015) apuntan a una disminución progresiva del incremento de la esperanza de vida, en lugar de a un aumento.# Mediante la combinación de los avances de la medicina y la informática, a través de la construcción de órganos artificiales. El hombre del futuro se transformaría en ''cyborg''¿Podremosconstruir máquinas inteligentes?y sería prácticamente inmortal.Esta es la línea seguida por los ''transhumanistas'' (Bostrom 2005).El problema aquí está en si será posible sustituir el cerebro humano por un cerebro artificial. Si no lo es, la supuesta inmortalidad terminaría en cuanto el cerebro se deteriorase. Podremos y Y si lo haremosfuese, ¿acaso quien se sometiese a esa sustitución seguiría siendo el mismo ser humano?# A través de la inteligencia artificial fuerte. En las próximasdécadas veremos Cuando seamos capaces de construir superinteligencias, podremos descargar nuestra consciencia en una rápida evolución en las capacidades de esas máquinas en direccionesinteresantesellas, para seguir viviendo indefinidamente. ''(Hawkins 2004Sin embargo, es preciso reconocer que este objetivo parece demasiado ambicioso, 7)al menos por ahora.Si no sabemos qué es la consciencia, ¿cómo vamos a descargarla?
Entre los que hacenpredicciones Otros investigadores no son tan optimistas destaca Ray como Hawkins y Kurzweil. Así, que lleva décadas anunciando lainminencia Ramón López de la inteligencia artificial fuerteMántaras dice:
<!--''La otra vertiente, la de inteligencia artificial generalista, intenta desarrollar inteligencias artificiales que tengan [if !supportListsla]-->·                   <!--versatilidad y [endifla]-->En su libro ''La era capacidad general de saber de las máquinas inteligentes''(Kurzweil 1990) parte muchas cosas. Esto no significa, y ahí es donde está el error de la base algunos de estos planteamientos, que un programa de ordenadorsuficientemente avanzado exhibiría automáticamente esa inteligencia similar a tenga que ser igual que lahumana (justo lo . De hecho, es imposible, en mi opinión. Por muy sofisticadas que Hawkins niega sean algunas inteligencias artificiales en la segunda cita anterior)el futuro, dentro de 100.000 o 200. Algunas 000 años, serán distintas de suspredicciones en este libro ya han sido falsadas, como el las humanas.''teléfono traductor'' para la primera década del siglo XXI(López de Mántaras 2013).
<!--[if !supportLists]-->·                   <!--[endif]-->En el libro ''La era Como vemos, las discrepancias son impresionantes: mientras unos hablan de unas pocas décadas, otros lo dejan para dentro de algunos cientos de miles de años. Como veremos en la sección 3.5, además de las máquinas espirituales''estas dos posturas (Kurzweil 1999a muy corto y muy largo plazo) predice existe una tercera: la que afirma, por razones filosóficas, que las el objetivo de construir máquinas más inteligentes que los hombres seránel resultado automático de la evolución de los computadores actuales durante unpar de décadas. Sólo faltan cuatro años para que esta predicción quede asimismofalsadahombre es probablemente imposible.
<!--[if !supportLists]-->·                   <!--[endif]-->Seis años despuésPuesto que los criterios puramente tecnológicos son anteriores a los filosóficos,Kurzweil publicó otro librovamos a ver primero con detalle el más antiguo de todos, la ''Lasingularidad está cerca prueba de Turing''(Kurzweil 2005), en el que afirma que laconfluencia de los avances de diversos campos (informática, robótica, genéticay nanotecnología darán lugar para 2045 a una singularidad tecnológica, unavance tan enorme que ya no seremos capaces de comprenderlo, lo que equivale adecir que seremos superados por nuestras máquinas para siempre.
<!--[if !supportLists]-->·                   
<!--[endif]-->Siete años después, Kurzweil
publicó ''Cómo crear una mente: revelado el
secreto del pensamiento humano'' (Kurzweil 2012), en el que sostiene que una
inteligencia artificial mayor que la humana podría crearse en breve (a fines de
la década de 2020), simplemente profundizando algunas técnicas típicas de la
inteligencia artificial débil, como los modelos de Markov y los algoritmos
genéticos.
Kurzweilno sólo parece obsesionado por la inteligencia artificial fuerte,  también lo está por el problema ===La prueba de lainmortalidad humana, que ve también inminente (alguna vez la ha predicho para2035), porque cree que en el fondo ambos problemas están estrechamenterelacionados. Según él, la inmortalidad se alcanzará por la confluencia de trescaminos diferentes:Turing===
<!--[if !supportLists]-->1.      <!--[endif]-->GraciasEn 1950, adelantándose a los avances su época, el matemático y químico inglés Alan Turing intentó definir las condiciones en que sería posible afirmar que una máquina es capaz de pensar como nosotros. Para Turing, esto se conseguirá cuando la medicina. Cuando máquina sea capaz de engañar a los investigadores sean capaces deaumentar nuestra esperanza de vida un año cada añoseres humanos, seremos automáticamenteinmortales. Desgraciadamente para Kurzweil, las predicciones haciéndoles pensar que es uno de la ONU para elsiglo XXI ellos (United Nations 2015Turing 1950) apuntan a una disminución progresiva delincremento . Esta prueba se llama ''el juego de la esperanza de vida, en lugar de a un aumentoimitación''.
<!--[if !supportLists]-->2Para desarrollar su teoría, lo primero que hizo Turing fue proponer una prueba preliminar.      <!--[endif]-->Mediantela combinación Se trata de que un investigador se comunique con dos personas de los avances distinto sexo y descubra cuál de ellas es el hombre y cuál es la medicina mujer, haciéndoles preguntas y la informáticaestudiando las respuestas que recibe. Los dos sujetos se encuentran, naturalmente, fuera de su vista, y se comunican con él a través de laconstrucción teletipos o terminales de órganos artificialesordenador. El Uno de ellos (el hombre del futuro se transformaría en ''cyborg'' y sería prácticamente inmortal. Estaes ) trata de engañarle, el otro (la línea seguida por los ''transhumanistas''(Bostrom 2005mujer)trata de ayudarle. El problema aquí está en si será posible sustituir ¿Cuántas preguntas tendrá que realizar para descubrir quién es quién? ¿En qué porcentaje de casos conseguirá engañarle el cerebrohumano por un cerebro artificial. Si hombre? Turing estimó que dicho porcentaje no lo esrebasaría mucho el 30%, o sea, la supuesta inmortalidadterminaría que en cuanto un 70% de los casos el cerebro investigador no se deteriorasedejaría engañar. Y si lo fueseEs curioso que estas cifras se hayan dado por buenas sin comprobación alguna. Al menos, ¿acaso quien yo no soy consciente de que este experimento sesometiese haya llevado a esa sustitución seguiría siendo el mismo ser humano?la práctica.
<!--[if !supportLists]-->3.      <!--[endif]-->Através En la segunda parte de la inteligencia artificial fuerteprueba, se sustituye el hombre por una computadora convenientemente programada. Cuando seamos capaces El segundo participante puede ser un ser humano cualquiera. Se trata de construirsuperinteligencias, podremos descargar nuestra consciencia en una que el investigador descubra cuál de ellas,para seguir viviendo indefinidamentesus dos contertulios es la computadora. Sin embargo, ¿Varían las circunstancias respecto al problema anterior? ¿Es capaz el interrogador de descubrir cuál es preciso reconocer queeste objetivo parece demasiado ambiciosola máquina, al haciendo menos por ahora. Si no sabemos quées preguntas que en el caso del hombre y la consciencia, ¿cómo vamos a descargarlamujer?
Otros investigadores noson tan optimistas como Hawkins Según Turing, se podrá afirmar que una máquina piensa cuando los resultados de las dos pruebas sean idénticos. Si una máquina que intenta hacerse pasar por humana fuese capaz de engañar a los seres humanos con la misma facilidad con que un ser humano puede engañar a otro, habría que considerarla inteligente y Kurzweilequivalente a los seres humanos. Así, Ramón López de Mántaras dice:
''Laotra vertiente, la de inteligencia artificial generalista, intenta desarrollarinteligencias artificiales que tengan [la] versatilidad y [la] capacidadgeneral de saber de muchas cosas. Esto Turing no significa, y ahí es donde está elerror de algunos de estos planteamientos, que esa inteligencia tenga que serigual que se limitó a plantear la humana. De hechoprueba, es imposible, en mi opinión. Por muysofisticadas sino que sean algunas inteligencias artificiales en el futuro, dentrode 100.000 o 200.000 años, serán distintas de las humanas.''(López de Mántaras 2013).hizo predicciones concretas:
Como vemos''Yo creo que en unos cincuenta años será posible programar computadoras, lasdiscrepancias son impresionantes: mientras unos hablan con una capacidad de almacenamiento de alrededor de unas pocas décadas10<sup>9</sup>,otros lo dejan para dentro que sean capaces de jugar tan bien al juego de algunos cientos la imitación que un interrogador promedio no tendrá más del 70 por ciento de miles probabilidad de años. Como veremos enhacer la sección 3identificación correcta después de cinco minutos de interrogatorio.5, además de estas dos posturas ''(a muy corto y muy largo plazoTuring 1950)existe una tercera: la que afirma, por razones filosóficas, que el objetivo deconstruir máquinas más inteligentes que el hombre es probablemente imposible.
Puesto que loscriterios puramente tecnológicos son anteriores Durante muchos años, ningún programa se acercó siquiera a los filosóficosresolver la prueba de Turing. Curiosamente, vamos a verprimero con detalle el que más antiguo de todosse aproximó a ello fue ELIZA (Weizenbaum 1966), la que se hacía pasar por un psiquiatra que dialoga con sus supuestos pacientes. Pero sólo los ''prueba de Turingpacientes''más inocentes se dejaban engañar por él, bastaba con intercambiar media docena de frases para descubrir que estabas hablando con una computadora, por la forma rígida en que contestaba.
En una prueba realizada en 2014, la predicción de Turing pareció cumplirse con 14 años de retraso, cuando un ''chatbot'3' (un programa que toma parte en una conversación de ''chat'') llamado ''Eugene Goostman'' consiguió convencer al 33% de sus contertulios, tras cinco minutos de conversación, de que era un chico ucraniano de 13 años.1Sin embargo, algunos analistas no ven las cosas tan claras.La prueba El hecho de que el programa se hiciese pasar por un adolescente extranjero, en lugar de un compatriota adulto, aumentó el nivel de credulidad de Turingsus contertulios en el ''chat''. Comentando este resultado, Evan Ackerman escribió:
En 1950, adelantándosea su época, el matemático y químico inglés Alan ''La prueba de Turing intentó definir lascondiciones en no demuestra que sería posible afirmar que una máquina es un programa sea capaz de pensar comonosotros. Para Turing, esto se conseguirá cuando la máquina sea capaz deMás bien indica si un programa puede engañar a un ser humano. Y los seres humanos, haciéndoles pensar que es uno de ellos (Turing1950)somos realmente tontos. Esta prueba se llama ''el juego dela imitación''(Ackerman 2014).
Para desarrollar suteoría, lo primero Muchos investigadores piensan que hizo Turing fue proponer una la prueba preliminar. Se tratade que un investigador se comunique con dos personas de distinto sexo ydescubra cuál de ellas es el hombre y cuál es Turing no basta para definir o detectar la mujerinteligencia. Por una parte, haciéndoles preguntas yestudiando las respuestas intenta demostrar que recibehay inteligencia, sin definirla. Los dos sujetos Por otra, la prueba se encuentranapoya en decisiones tomadas por personas concretas,naturalmente, fuera cuyo juicio puede no ser de su vistaconfianza, y se comunican con él a través de teletipos oterminales de ordenadorcomo señala Ackerman. Uno de ellos (el hombre) trata de engañarleActualmente, el otro(ni filósofos ni informáticos consideran que la mujer) trata prueba de ayudarle. ¿Cuántas preguntas tendrá que realizar paradescubrir quién es quién? ¿En qué porcentaje de casos conseguirá engañarle elhombre? Turing estimó que dicho porcentaje no rebasaría mucho el 30%tenga verdadero valor, o sea,por lo que en un 70% de los casos el investigador no se dejaría engañar. Es curiosoque estas cifras se hayan dado por buenas sin comprobación alguna. Al menos, yono soy consciente intentos de que este experimento se haya llevado llevarla a la prácticacabo (como el mencionado) deberían considerarse simplemente anecdóticos.
En Algunos investigadores (Legg 2007, Hernández-Orallo 2010) han propuesto pruebas alternativas a la segunda parte deTuring para detectar la pruebaposible inteligencia de las máquinas, se sustituye el hombre pero por una computadora convenientemente programada.El segundo participante puede ser un ser humano cualquiera. Se trata de que elinvestigador descubra cuál de sus dos contertulios es la computadoramomento no se ha impuesto ninguna. ¿Varían lascircunstancias respecto al problema anterior? ¿Es capaz el interrogador de descubrircuál es la máquina, haciendo menos preguntas que en el caso del hombre y lamujer?
Según Turing, se podrá
afirmar que una máquina piensa cuando los resultados de las dos pruebas sean idénticos.
Si una máquina que intenta hacerse pasar por humana fuese capaz de engañar a
los seres humanos con la misma facilidad con que un ser humano puede engañar a
otro, habría que considerarla inteligente y equivalente a los seres humanos.
Turing no se limitó aplantear la prueba, sino que hizo predicciones concretas: ===La habitación china===
''Yocreo que en unos cincuenta años será posible programar computadorasEn 1980, con el filósofo John Searle propuso unacapacidad de almacenamiento de alrededor de 10<sup>9</sup>nueva prueba, para que seancapaces de jugar tan bien al juego de ''la imitación que un interrogador promediono tendrá más del 70 por ciento de probabilidad de hacer la identificacióncorrecta después de cinco minutos de interrogatorio. habitación china ''(Turing1950Searle 1980, 1999).Veamos en qué consiste:
Durante muchos años,ningún # Supongamos que tenemos un programa se acercó siquiera a resolver de computadora capaz de pasar satisfactoriamente la prueba de Turing.Curiosamente, el que más se aproximó pone a ello fue ELIZA (Weizenbaum 1966)dialogar con una persona china. En la conversación, los dos participantes utilizan caracteres chinos para comunicarse por escrito. La computadora, que está encerrada en una habitación para que la persona no la vea, lo hace tan bien que sehacía pasar es capaz de engañarla, por lo que la persona cree estar dialogando con un psiquiatra ser humano que dialoga con sus supuestos pacientesconoce perfectamente la lengua china. Pero sólolos ''pacientes'' más inocentes # Ahora Searle saca de la habitación la computadora y en su lugar sedejaban engañar por coloca élmismo. Searle reconoce que no sabe chino, bastaba pero se lleva un organigrama del programa que utilizó la computadora para dialogar con intercambiar media docena la otra persona. En principio, utilizando ese programa, Searle sería capaz de frases paradialogar con ella en su propia lengua tan bien como lo hacía la computadora. Cada vez que reciba un texto escrito en chino, aplica las reglas y escribe los signos correspondientes a la respuesta que habría dado la computadora.descubrir # Searle sabe que no sabe chino. Sabe también que no se ha enterado de la conversación que acaba de mantener con la otra persona, a pesar de que dicha conversación fue capaz de engañarla, haciéndola creer que estabas hablando ha estado dialogando con una un ser humano que sabe chino.# Como la actuación de la computadorafue idéntica a la de Searle, por es de suponer que la máquina tampoco entendió la forma rígida en quecontestabaconversación.Ahora Searle plantea la siguiente pregunta: ¿Es consciente de ello la computadora, como Searle lo es?
En una prueba realizadaen 2014, Es de suponer que la predicción de Turing pareció cumplirse con 14 años computadora no es consciente de retrasoello,cuando un ''chatbot'' (un como ningún programa actual lo sería. Luego no basta con quetoma parte en una conversación máquina sea capaz de ''chat'')llamado ''Eugene Goostman'' consiguióconvencer al 33% pasar la prueba de sus contertuliosTuring para que se pueda afirmar que piensa, tras cinco minutos de conversación, depara poder considerarla inteligente. Hacen falta dos cosas más: que comprenda lo que escribe y que era un chico ucraniano sea consciente de 13 añosla situación. Sin embargoMientras eso no ocurra, algunos analistas no ven lascosas tan claras. El hecho de que el programa se hiciese pasar por unadolescente extranjero, en lugar de un compatriota adulto, aumentó el nivel decredulidad de sus contertulios en el podremos hablar estrictamente de ''chatinteligencia artificial fuerte''.Comentando este resultado, Evan Ackerman escribió:
''La prueba de Turing no demuestra que En todo esto subyace unprograma sea capaz problema muy importante: para construir una inteligencia artificial fuerte, parece necesario dotar a las máquinas de pensarconsciencia. Más bien indica Pero si un programa puede engañar no sabemos qué es la consciencia, ni siquiera la nuestra, ¿cómo vamos a unser humano. Y conseguirlo? En los seres humanos somos realmente tontos. ''(Ackerman 2014)últimos tiempos se han realizado muchos avances en neurociencia, pero aún estamos muy lejos de poder definir lo que es la consciencia y saber de dónde surge y cómo funciona, así que mucho menos podemos crearla, ni siquiera simularla.
Muchosinvestigadores piensan que El argumento de la prueba de Turing habitación china no basta para definir o detectarla inteligenciaha convencido a todo el mundo. Por una parte, intenta demostrar Las respuestas que hay inteligencia, sindefinirla. Por otra, la prueba se apoya le han planteado son muy variadas y pueden clasificarse en decisiones tomadas por personasconcretasvarios grupos, cuyo juicio puede no ser de confianza, como señala Ackerman.Actualmente, ni filósofos ni informáticos consideran los que la prueba de Turingtenga verdadero valor, por lo que los intentos de llevarla a cabo (como elmencionado) deberían considerarse simplemente anecdóticos.aquí sólo se mencionan tres:
Algunosinvestigadores * Los que sostienen (Legg 2007Dennett 1991, Hernández-Orallo 2010Russell 2003) que en esta prueba sí hay alguien (o algo) han propuesto pruebasalternativas a que entiende chino: la habitación completa, el sistema, el conjunto, aunque el ser humano que forma parte del sistema no lo entienda. Searle replica que su argumento puede simplificarse, porque él podría -en principio- aprender de Turing para detectar la posible inteligencia de lasmáquinasmemoria el organigrama del programa, pero por con lo que el momento no sistema completo se ha impuesto ningunareduciría a él mismo, que sigue sin entender chino y lo sabe. De este contra-argumento hay varias versiones, más o menos equivalentes.
* Otros, como Marvin Minski (1980) sostienen que la mera presencia del software hace aparecer una ''mente virtual'3', diferente del sistema, y esta mente sí entiende chino.2Searle responde que dicha mente no es tal, sino una simple simulación.La habitación china'''
En 1980, el filósofo John Searle propuso una nueva prueba, ''la''''habitación china ''* Algunos (Searle 1980, 1999ver Cole 2004).Veamos en qué consiste:# Supongamos aducen que tenemos un el programa de computadora capaz de pasar satisfactoriamente la prueba de Turing, que se pone permite a dialogar con una persona china. En la conversación, los dos participantes utilizan caracteres chinos para comunicarse por escrito. La computadora, que está encerrada en una habitación para que contestar a la persona no la vea, lo hace tan bien china tiene que es capaz contener una gran cantidad de engañarlainformación sobre el mundo en general, por lo que la persona cree estar dialogando con un ser humano que conoce perfectamente la lengua china.# Ahora Searle saca de la habitación la computadora y en su lugar se coloca él mismo. Searle reconoce que no sabe chino, pero se lleva un organigrama del programa que utilizó la computadora para dialogar con la otra persona. En principio, utilizando ese programa, Searle sería capaz de dialogar con ella en su propia lengua tan bien como es esto lo hacía la computadora. Cada vez que reciba un texto escrito en chino, aplica las reglas y escribe da sentido a los signos correspondientes a la respuesta que habría dado la computadorasímbolos.# Searle sabe contesta que no sabe chino. Sabe también cree que no se ha enterado de la conversación que acaba de mantener con la otra persona, a pesar de que dicha conversación fue capaz de engañarla, haciéndola creer que ha estado dialogando con sea posible introducir esa información contextual en un ser humano que sabe chino.# Como la actuación de la computadora fue idéntica a la de Searle, es de suponer que la máquina tampoco entendió la conversación. Ahora Searle plantea la siguiente pregunta: ¿Es consciente de ello la computadora, como Searle lo es? Es de suponer que lacomputadora no es consciente de ello, como ningún programa actual lo sería.Luego no basta con que una máquina sea capaz de pasar la prueba de Turing paraque se pueda afirmar que piensa, para poder considerarla inteligente. Hacenfalta dos cosas más: que comprenda lo que escribe y que sea consciente de lasituación. Mientras eso no ocurra, no podremos hablar estrictamente de ''inteligenciaartificial fuerte''.
En todo esto
subyace un problema muy importante: para construir una inteligencia artificial
fuerte, parece necesario dotar a las máquinas de consciencia. Pero si no
sabemos qué es la consciencia, ni siquiera la nuestra, ¿cómo vamos a conseguirlo?
En los últimos tiempos se han realizado muchos avances en neurociencia, pero
aún estamos muy lejos de poder definir lo que es la consciencia y saber de
dónde surge y cómo funciona, así que mucho menos podemos crearla, ni siquiera simularla.
===El argumento problema de lahabitación china no ha convencido a todo el mundo. Las respuestas que se le hanplanteado son muy variadas y pueden clasificarse en varios grupos, de los queaquí sólo se mencionan tres:contención===
<!--[if !supportLists]-->·                   <!--[endif]-->Los que sostienen (Dennett1991, Russell 2003) que en esta prueba sí hay alguien (o algo) que entiendechino: Si la habitación completainteligencia artificial fuerte fuese practicable, el sistema, el conjunto, aunque el ser humanoque forma parte del sistema no lo entienda. Searle replica que su argumentopuede simplificarse, porque él podría -en principio- aprender de memoria el organigrama del programa, con lo que elsistema completo se reduciría a él mismo, que sigue sin entender chino y losabe. De este contra-argumento hay varias versiones, más o menos equivalentes.nos plantearía un problema importante:
<!--[if !supportLists]-->·                   <!--[endif]-->Otros, como MarvinMinski (1980) sostienen que '''Definición 2:''' ''El '' '''problema de la mera presencia del software hace aparecer una contención'''mente virtual'', diferente del sistema, ypuede definirse con esta mente sí entiende chino. Searle responde pregunta: ¿Es posible programar una superinteligencia de tal manera que dicha mente no es tal, sinouna simple simulación. le esté permitido causar daño a ningún ser humano?''
<!--[if !supportLists]-->·                   <!--[endif]-->Algunos (ver Cole2004) aducen que En 1942, en el programa que permite a la computadora contestar a lapersona china tiene que contener una gran cantidad contexto de información sus cuentos cortos sobre elmundo en generalrobots, y que es esto lo que da sentido a los símbolos. Searlecontesta que no cree que sea posible introducir esa información contextual enun programa.Isaac Asimov formuló las tres leyes de la robótica (Asimov 1950):
'''3# Un robot no debe hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.3# Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.El problema de # Un robot debe proteger su propia existencia en la contención'''medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Si Esencialmente, la primera ley de Asimov es equivalente al problema de la contención. Pues bien, hay indicios matemáticos de que no es posible resolver el problema de la inteligenciaartificial fuerte fuese practicablecontención. En particular, en un estudio muy reciente (Alfonseca inédito) se nos plantearía un demuestra que el problema de la contención es equivalente al problema importantede la parada, que Alan Turing demostró que no tiene solución (Turing 1937). Si esto se confirma, tenemos dos posibilidades:
'''Definición2: '''''El'''''problemade la contención''' ''puede definirse'' ''con estapregunta: ¿Es a) Renunciar a crear superinteligencias, para evitar el posible programar una superinteligencia de tal manera mal que no leesté permitido causar daño a ningún ser humano?''podrían causarnos.
En 1942, en el contextob)Renunciar a estar seguros de sus cuentos cortos sobre robots, Isaac Asimov formuló que las tres leyes de larobótica (Asimov 1950): # Un robot superinteligencias no debe hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra podrán causarnos daño.# Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen Si fuese posible llegar hasta ese punto en conflicto con la primera ley.# Un robot debe proteger su propia existencia investigación en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Esencialmenteinteligencia artificial, laprimera ley de Asimov es equivalente al problema de la contención. Pues bieny si decidimos hacerlo, hayindicios matemáticos de habrá que no es posible resolver el problema de lacontención. En particular, en asumir un estudio muy reciente (Alfonseca inédito) sedemuestra que el problema de la contención es equivalente al problema de laparada, que Alan Turing demostró que no tiene solución (Turing 1937)riesgo. Si esto seconfirma, tenemos dos posibilidades:
<!--[if !supportLists]-Norbert Wiener, fundador de la Cibernética (una tecnología interdisciplinar para la exploración y el diseño de sistemas auto->aregulados)                 <!--[endif]-->Renunciar a crearsuperinteligencias, para evitar compara con la magia el comportamiento literal y poco inteligente de las computadoras, y pone el posible mal que podrían causarnos.siguiente ejemplo (Wiener 1948-1961):
<!--''Más terrible que cualquiera de estos cuentos es la fábula de la pata del mono, escrita por W.W.Jacobs, escritor inglés de principios del siglo [XX]. Un trabajador inglés retirado está sentado a la mesa con su esposa y un amigo, un sargento británico que acaba de volver de la India. El sargento muestra a sus anfitriones un amuleto en forma de pata de mono seca y marchita... [que tiene] el poder de conceder tres deseos a tres personas... El último [if !supportListsdeseo de su primer propietario fue]-->b)                <!--morir... Su amigo... desea poner a prueba sus poderes. Como primer [endifdeseo]pide 200 libras. Poco después llaman a la puerta y un funcionario de la empresa en que trabaja su hijo entra en la habitación. El padre se entera de que su hijo ha muerto en un accidente con las máquinas, por lo que la empresa... desea pagarle al padre la suma de 200 libras... Desconsolado, el padre formula su segundo deseo -que su hijo vuelva->Renunciar a estarseguros y cuando se oye otra llamada en la puerta... aparece algo... el fantasma del hijo. El último deseo es que el fantasma desaparezca. La moraleja de estas historias es que las superinteligencias no podrán causarnos dañola magia es literal... Las máquinas que aprenden también son literales. Si fueseposible llegar hasta ese punto en programamos una máquina... y le pedimos que nos lleve a la investigación en inteligencia artificialvictoria,y si decidimos hacerlono sabemos lo que queremos decir con eso, habrá que asumir un riesgoveremos al fantasma llamando a nuestra puerta.''
Norbert La moraleja que Wiener,fundador extrae de la Cibernética este cuento (una tecnología interdisciplinar para la exploracióny el diseño de sistemas auto-reguladosJacobs 1902), compara con es evidente: como la magia el comportamientoliteral y poco inteligente de , las computadorasobedecen literalmente las órdenes que reciben, sin tener en cuenta muchos datos de los que nosotros disponemos, que solemos dar por supuestos, y pone el siguiente ejemplo (Wiener1948-1961):pero que ellas no poseen.
''Más
terrible que cualquiera de estos cuentos es la fábula de la pata del mono,
escrita por W.W.Jacobs, escritor inglés de principios del siglo [XX]. Un
trabajador inglés retirado está sentado a la mesa con su esposa y un amigo, un
sargento británico que acaba de volver de la India. El sargento muestra a sus
anfitriones un amuleto en forma de pata de mono seca y marchita... [que tiene]
el poder de conceder tres deseos a tres personas... El último [deseo de su
primer propietario fue] morir... Su amigo... desea poner a prueba sus poderes.
Como primer [deseo] pide 200 libras. Poco después llaman a la puerta y un
funcionario de la empresa en que trabaja su hijo entra en la habitación. El
padre se entera de que su hijo ha muerto en un accidente con las máquinas, por
lo que la empresa... desea pagarle al padre la suma de 200 libras...
Desconsolado, el padre formula su segundo deseo -que su hijo vuelva- y cuando se
oye otra llamada en la puerta... aparece algo... el fantasma del hijo. El
último deseo es que el fantasma desaparezca. La moraleja de estas historias es
que la magia es literal... Las máquinas que aprenden también son literales. Si
programamos una máquina... y le pedimos que nos lleve a la victoria, y no
sabemos lo que queremos decir con eso, veremos al fantasma llamando a nuestra puerta.''
La moraleja que Wienerextrae de este cuento (Jacobs 1902) es evidente: como ===Algunos proyectos fallidos hacia la magia, lascomputadoras obedecen literalmente las órdenes que reciben, sin tener en cuentamuchos datos de los que nosotros disponemos, que solemos dar por supuestos, peroque ellas no poseen.inteligencia artificial fuerte===
'''3.4.Algunos Es curioso que los proyectos fallidos hacia más ambiciosos y famosos del campo de la inteligencia artificial, los que se han adentrado en las zonas fronterizas entre la inteligencia artificial débil y la fuerte''', hayan terminado mal desde el punto de vista de la tecnología, aunque no desde otros puntos de vista. Vamos a revisar someramente tres de los más conocidos:
Es curioso que los
proyectos más ambiciosos y famosos del campo de la inteligencia artificial, los
que se han adentrado en las zonas fronterizas entre la inteligencia artificial
débil y la fuerte, hayan terminado mal desde el punto de vista de la tecnología,
aunque no desde otros puntos de vista. Vamos a revisar someramente tres de los
más conocidos:
'''3.4.1.====Quinta generación japonesa'''====
Hacia los años setenta sedistinguían cuatro generaciones de computadoras, tanto desde el punto de vistadel ''hardware'' como del ''software''.
Generaciones de ''hardware'':
'''Primerageneración''': ordenadores construidos conválvulas electrónicas de vacío.
'''Segundageneración''': ordenadores construidos contransistores.
'''Tercerageneración''': ordenadores construidos concircuitos integrados.
'''Cuartageneración''': ordenadores dotados de un sistemaoperativo capaz de funcionar en tiempo compartido (ejecutando variasaplicaciones al mismo tiempo) y con memoria virtual.
Generaciones de ''software'':
'''Primerageneración''': programas escritos en lenguajebinario (lenguaje de la máquina). '''Segunda generación''': programas escritos en lenguaje simbólico (ensamblador). '''Tercera generación''': programas escritos en lenguajes de alto nivel. El primero fue FORTRAN, pero luego proliferaron como en una torre de Babel.
'''SegundaCuarta generación''': programas escritos en lenguajesimbólico (ensamblador)mediante sistemas de generación automática de aplicaciones, con acceso a bases de datos.
A finales de los años setenta, el gobierno japonés decidió emprender un proyecto que pusiera a su país a la cabeza de la informática mundial. Según explicaron, estaban cansados de que el resto del mundo considerara a los japoneses como ''copiadores eficientes''Tercerade la tecnología desarrollada por otros países. Esta vez querían ser ellos los copiados. Por eso pusieron en marcha el proyecto de la '''quinta generación''': programas escritos (tanto en el ''hardware'' como en lenguajesde alto nivel. El primero fue FORTRANel ''software''), pero luego proliferaron como que consistiría en unatorre de Babel.lo siguiente:
'''CuartaQuinta generaciónde ''hardware''''': programas escritos mediantesistemas de generación automática ordenadores adaptados para simplificar la construcción de aplicaciones, con acceso a bases de datosinteligencia artificial.
A finales de los añossetenta, el gobierno japonés decidió emprender un proyecto que pusiera a supaís a la cabeza de la informática mundial. Según explicaron, estaban cansados'''Quinta generación de que el resto del mundo considerara a los japoneses como ''copiadoressoftware'' ''eficientes '': programas dela tecnología desarrollada por otros países. Esta vez querían ser ellos loscopiados. Por eso pusieron inteligencia artificial escritos en marcha el proyecto lenguaje Prolog, capaces de la '''quinta generación''' (tanto en interaccionar con el ''hardware''como usuario en el ''software''su propia lengua (inglés y japonés), que consistiríaen lo siguiente:y de traducir correctamente entre esas dos lenguas.
'''Quintageneración El lenguaje Prolog, inspirado en las reglas de los sistemas expertos descritas en el apartado 2.6, fue diseñado durante los años setenta para escribir aplicaciones de inteligencia artificial (Clocksin 1981-2003), y se basaba en la realización de deducciones lógicas representadas por reglas definidas en orden arbitrario, por lo que se dice que este lenguaje es ''hardwareno procedimental''''':ordenadores adaptados para simplificar la construcción . Un gestor de inferencias como el de aplicaciones los sistemas expertos se encarga deinteligencia artificialdecidir en qué orden deben ejecutarse las reglas.
'''QuintaEl proyecto de la quinta generación debía durar diez años y terminó a principios de los años noventa con un fracaso. Los supuestos ordenadores de quinta generación que iban a construirse resultaron ser ordenadores personales corrientes, dotados de un ''softwarefirmware''que les permitía entender el lenguaje Prolog, lo cual no era nuevo, pues los primeros ordenadores personales llevaban un ''firmware':programas de inteligencia artificial escritos en ' que les capacitaba para entender el lenguaje Prolog, capaces deinteraccionar con el usuario en su propia lengua Basic. Los grandes objetivos (inglés traducción automática y japonéscomprensión del lenguaje natural) y no fueron alcanzados. El éxito del proyecto consistió en empujar a otros países a lanzar proyectos menos ambiciosos, algunos detraducir correctamente entre esas dos lenguaslos cuales sí dieron lugar a resultados razonables.
El lenguaje Prolog,
inspirado en las reglas de los sistemas expertos descritas en el apartado 2.6,
fue diseñado durante los años setenta para escribir aplicaciones de
inteligencia artificial (Clocksin 1981-2003), y se basaba en la realización de
deducciones lógicas representadas por reglas definidas en orden arbitrario, por
lo que se dice que este lenguaje es ''no
procedimental''. Un gestor de inferencias como el de los sistemas expertos se
encarga de decidir en qué orden deben ejecutarse las reglas.
El proyecto ====Iniciativa de laquinta generación debía durar diez años y terminó a principios de los añosnoventa con un fracaso. Los supuestos ordenadores de quinta generación que ibana construirse resultaron ser ordenadores personales corrientes, dotados de un ''firmware'' que les permitía entender ellenguaje Prolog, lo cual no era nuevo, pues los primeros ordenadores personalesllevaban un ''firmware'' que lescapacitaba para entender el lenguaje Basic. Los grandes objetivos (traducciónautomática y comprensión del lenguaje natural) no fueron alcanzados. El éxitodel proyecto consistió en empujar a otros países a lanzar proyectos menos ambiciosos,algunos de los cuales sí dieron lugar a resultados razonables.Defensa Estratégica====
Conocida también como '''3SDI''' (por sus siglas en inglés) y como '''Star Wars''' (''la guerra de las galaxias''), este proyecto fue lanzado por la administración de Ronald Reagan durante los años 80 para romper el equilibrio nuclear entre las grandes potencias.4.2.Iniciativa Su objeto era la construcción de un sistema de defensa espacial que protegiera a los Estados Unidos contra un posible ataque global con proyectiles nucleares, gracias a un conjunto de satélites artificiales que escudriñarían permanentemente el planeta para localizar los primeros síntomas de Defensa Estratégicaun ataque nuclear y pondrían en marcha diversos mecanismos dirigidos a contrarrestar dicho ataque, impidiendo que los proyectiles intercontinentales ICBM (''Inter-Continental Balistic Missile'') llegaran a su destino. Un ICBM tiene un alcance de miles de kilómetros y sería lanzado en una órbita que le llevaría fuera de la atmósfera, hasta una altitud de unos 1200 kilómetros. De acuerdo con los tratados contra la proliferación nuclear, cada proyectil no podría transportar más de diez cabezas nucleares, que al final se separarían para dirigirse hacia diez objetivos diferentes, aunque sí podría llevar un número mucho más grande de señuelos, proyectiles secundarios sin carga nuclear, cuya única misión era disminuir la probabilidad de que los proyectiles cargados fuesen destruidos antes de alcanzar el objetivo.
Conocida también como '''SDI''' (por sus siglas Un ataque nuclear total supondría el lanzamiento de unas 10.000 cabezas nucleares. Antes de la puesta en inglés) y como '''Star Wars''' (''marcha de la guerra iniciativa de las galaxias'')defensa estratégica, este proyecto fue lanzado por laadministración cuando una de Ronald Reagan durante los años 80 para romper el equilibrionuclear entre las grandes potencias. Su objeto era descubriera que la construcción de unsistema de defensa espacial que protegiera a los Estados Unidos contra un posibleotra había lanzado el ataque global con proyectiles nucleares, gracias a un conjunto de satélitesartificiales que escudriñarían permanentemente el planeta para localizar losprimeros síntomas de sólo le quedaban dos posibilidades: aceptar la destrucción sin tomar represalias o lanzar un ataque nuclear y pondrían en marcha diversos mecanismosdirigidos a contrarrestar dicho ataquecontragolpe, impidiendo lo que los proyectiles intercontinentalesICBM (''Inter-Continental Balistic Missile'')llegaran daría lugar a su destinola destrucción mutua de ambas partes. Un ICBM tiene un alcance de miles de kilómetros y seríalanzado El mundo permaneció en una órbita que le llevaría fuera de la atmósfera, hasta una altitudesta situación de amenaza permanente durante unos 1200 kilómetros. De acuerdo con los tratados contra la proliferaciónnuclear, cada proyectil no podría transportar más de diez cabezas nucleares,que al final se separarían para dirigirse hacia diez objetivos diferentes,aunque sí podría llevar un número mucho más grande de señuelos, proyectilessecundarios sin carga nuclear, cuya única misión era disminuir la probabilidadde que los proyectiles cargados fuesen destruidos antes de alcanzar elobjetivocuarenta años.
Un El objetivo de la iniciativa de defensa estratégica era proporcionar una tercera alternativa: localizar prematuramente el ataque nuclear totalsupondría el lanzamiento de unas y destruir las 10.000 cabezas nuclearesdurante su vuelo por el espacio. Antes Para conseguirlo sería preciso detectar los ICBM durante el lanzamiento (los diez primeros minutos) y destruirlos durante la fase de la puestaen marcha movimiento balístico sin empuje activo (unos 25 minutos), pero antes de la iniciativa de defensa estratégicafase terminal, cuando una de las grandespotencias descubriera que la otra había lanzado el ataque, sólo le quedaban dosposibilidades: aceptar la destrucción sin tomar represalias o lanzar un contragolpecabezas nucleares y los señuelos se independizan,lo que daría lugar a haría prácticamente imposible la destrucción mutua de ambas partes. El mundo permaneció enesta situación de amenaza permanente durante unos cuarenta añostodos ellos.
El objetivo de la iniciativade defensa estratégica era proporcionar una tercera alternativa: localizar prematuramenteel ataque y Para poder destruir las 10.000 cabezas nucleares durante su vuelo por elespacio. Para conseguirlo sería preciso detectar los ICBM durante ellanzamiento (los diez primeros minutos) y destruirlos proyectiles durante la fase demovimiento balístico sin empuje activo , se iban a utilizar armas avanzadas (unos 25 minutosalgunas aún no has sido desarrolladas), pero antes como proyectiles antiproyectiles, armas de haces de partículas o láseres de rayos X. Obviamente no hay tiempo para la faseterminal, cuando las cabezas nucleares y los señuelos se independizanparticipación humana en el proceso, por lo queharía prácticamente imposible la destrucción el sistema entero debería ser autónomo, controlado mediante programas de todos ellos''inteligencia artificial''.
Para poder destruir losproyectiles durante la fase de movimiento balístico, se iban a utilizar armasavanzadas El proyecto SDI (algunas aún ''Star Wars'') no has sido desarrolladas)llegó a implementarse, como proyectilesantiproyectiles, armas pero el simple anuncio de haces su puesta en marcha quizá fue uno de partículas o láseres de rayos X. Obviamenteno hay tiempo los elementos que influyó para la participación humana en que se rompiera el procesoequilibrio entre las dos grandes potencias, por lo que el habría conducido a la desintegración de la Unión Soviética y a la liberación de los países pertenecientes al Pacto de Varsovia, que se deshicieron de los regímenes dictatoriales comunistas y pasaron al sistemaentero debería ser autónomodemocrático, controlado mediante programas realineándose después como miembros de la Unión Europea y de ''inteligencia artificial''la OTAN.
El proyecto SDI (''Star Wars'') no llegó a implementarse,
pero el simple anuncio de su puesta en marcha quizá fue uno de los elementos
que influyó para que se rompiera el equilibrio entre las dos grandes potencias,
lo que habría conducido a la desintegración de la Unión Soviética y a la
liberación de los países pertenecientes al Pacto de Varsovia, que se deshicieron
de los regímenes dictatoriales comunistas y pasaron al sistema democrático,
realineándose después como miembros de la Unión Europea y de la OTAN.
'''3.4.3.====Cápsulas inteligentes para la exploración del sistema solar'''====
La Agencia Espacial estadounidense(NASA) ha utilizado también técnicas de inteligencia artificial para la exploracióndel espacio. En la exploración de astros lejanos las comunicaciones son difíciles,pues el tiempo de transmisión puede ser superior a una hora entre ida y vuelta,por lo que, o bien se programa todo por anticipado, o es preciso introducirtécnicas que permitan a la cápsula espacial responder automáticamente asituaciones no previstas.
El diseño de la primeracápsula espacial que debería ser completamente autónoma comenzó en 1982. Suobjetivo era explorar Titán, el más grande de los satélites de Saturno. Elgrupo de trabajo que inició el diseño escribió esto:
''Lossistemas de inteligencia artificial con capacidad de formación automática dehipótesis serán necesarios para el examen autónomo de ambientes desconocidos.Esta capacidad es muy deseable para la exploración eficaz del Sistema Solar, yes esencial para la investigación de otros sistemas estelares.''
Las técnicas deinteligencia artificial que se consideraban necesarias eran:
<!--[if !supportLists]-->1# Corrección autónoma de errores.                 <!--[endif]-->Corrección autónoma # Proceso en paralelo.# Capacidad lógica y dialéctica.# Adquisición, reconocimiento de formas y formación deconceptos.errores# Utilización del razonamiento abductivo.
<!--[if !supportLists]-->2Cuando en 1997 se lanzó la misión Cassini/Huygens (NASA 2011), se programó por procedimientos tradicionales, pues varias de estas técnicas aún no estaban disponibles (siguen sin estarlo). Cuando la misión llegó en 2004 a las proximidades de Saturno, una de sus componentes, la sonda Huygens, descendió a la superficie de Titán y envió numerosos datos sobre lo que encontró allí. Es curioso, sin embargo, que la actuación de la cápsula tuvo que modificarse en el último momento desde la Tierra, pues se descubrió que el programa que la dirigía contenía un error crítico de diseño (no se había tenido en cuenta el efecto Doppler).                 <!--[endif]-->Proceso Como era imposible cambiar el programa informático y éste no podía adaptarse por sí solo a la nueva situación, hubo que buscar una solución de compromiso, que consistió en modificar la trayectoria prevista para minimizar el efecto Doppler. Afortunadamente, este reajuste fue suficiente para evitar que se perdiera la información de la sonda, pero esto indica que los objetivos iniciales de dotar a la cápsula de inteligencia artificial autónoma estaban muy lejos de haberse cumplido. Tampoco la misión ''New Horizons'', lanzada en 2006 y que en paralelo2015 ha llegado a Plutón, puede considerarse un ejemplo de inteligencia artificial autónoma, por lo que los grandes proyectos de la NASA de los años ochenta no se han cumplido satisfactoriamente.
<!--[if !supportLists]-->3.                 
<!--[endif]-->Capacidad lógica y
dialéctica.
<!--[if !supportLists]-->4.                 <!--[endif]-->Adquisición,reconocimiento de formas y formación de conceptos.===¿Es posible la inteligencia artificial fuerte?===
<!--[if !supportLists]-->5.                 <!--[endif]-->Utilización delrazonamiento abductivoComo hemos visto, se dice con frecuencia que estamos cerca de conseguir la verdadera ''inteligencia artificial'', la de máquinas tan inteligentes (o más) que los seres humanos.''¿Es esto posible, y si lo es, está realmente tan cerca como parecen creer algunos expertos y los medios de comunicación?''
Cuando en 1997 se lanzóla misión Cassini/Huygens (NASA 2011), se programó por procedimientostradicionales, pues varias de estas técnicas aún no estaban disponibles (siguensin estarlo). Cuando la misión llegó en 2004 Para responder a las proximidades de Saturno, unade sus componentes, la sonda Huygens, descendió a la superficie de Titán yenvió numerosos datos sobre lo esta pregunta hace falta saber algo más que encontró allí. Es curioso, sin embargoinformática, hay quela actuación adentrarse en los campos de la cápsula tuvo que modificarse en el último momento desde laTierra, pues se descubrió que el programa que la dirigía contenía un errorcrítico de diseño (no se había tenido en cuenta el efecto Doppler). Como eraimposible cambiar el programa informático biología y éste no podía adaptarse por sí soloa la nueva situación, hubo que buscar una solución de compromiso, que consistióen modificar la trayectoria prevista para minimizar el efecto Dopplerfilosofía.Afortunadamente, este reajuste fue suficiente para evitar que se perdiera lainformación Después de la sondatodo, pero esto indica que los objetivos iniciales de dotara la cápsula de ''inteligencia artificial autónoma estaban muy lejos de haberse cumplido'' es una copia.Tampoco la misión Existe una ''New Horizonsinteligencia natural'',lanzada en 2006 que nos sirve de base y punto de comparación. La pregunta anterior puede reformularse así: ''¿sabemos lo que en 2015 ha llegado a Plutónes la inteligencia natural, puede considerarse unejemplo de inteligencia artificial autónomacómo surge y cómo se desarrolla, por para poder emularla en nuestras máquinas?'' Porque si no sabemos lo que los grandes proyectos dela NASA de los años ochenta no se han cumplido satisfactoriamenteestamos buscando, difícilmente vamos a conseguirlo.
'''3.5.¿Es posible la inteligencia artificial fuerte?'''A esta pregunta se le han dado cuatro respuestas filosóficas diferentes e incompatibles (Soler 2013, Polaino 2014):
Como hemos visto# '''Dualismo metafísico''': la mente y el cerebro son dos realidades diferentes. La primera es una sustancia espiritual y no espacial, sedice capaz de interaccionar con frecuencia el cerebro, que estamos cerca es material y espacial. Ambas entidades pueden existir independientemente la una de conseguir la verdadera otra (Descartes 1647), aunque el cuerpo sin la mente acaba por descomponerse.# '''inteligencia artificialDualismo neurofisiológico''': la mente y el cerebro son diferentes, pero están tan íntimamente unidas que llegan a constituir una unidad (Eccles 1984), son dos estados complementarios y únicos de un mismo organismo (Damasio 1996).# '''Monismo emergentista''': la mente es un producto evolutivo emergente con auto-organización, que ha surgido como un sistema complejo a partir de máquinastan inteligentes sistemas más simples formados por las neuronas (o másClayton 1999, 2004, Damasio 1998, Kauffman 2003, Searle 2004) . Clayton, por ejemplo, sostiene que las estructuras subyacentes no pueden determinar por completo la evolución de los seres humanosfenómenos mentales, pero que estos sí pueden influir sobre aquellas. # '''Monismo reduccionista o funcionalismo biológico'''¿Es esto posible: la mente está totalmente determinada por el cerebro, y si este por la red de neuronas que lo constituye. El pensamiento humano es un epifenómeno. La libertad de elección esuna ilusión. Somos máquinas programadas (Dennett 1991, está realmente tan cerca como parecencreer algunos expertos y los medios de comunicación?'' Penrose 2004).
Para responder a estapregunta hace falta saber algo más Es evidente que informática, hay que adentrarse en loscampos partidarios de la biología y opción número 4 (el monismo reduccionista) creen de forma natural que la filosofíainteligencia artificial fuerte debe ser posible, incluso con máquinas como las que ya tenemos, cuando alcancen una potencia y velocidad suficientes. Después Los partidarios de todola opción número 3 (monismo emergentista) tienden a pensar que, para que la ''inteligencia artificial'' es fuerte sea posible, primero tenemos que cumplir una copiacondición previa: conocer a fondo el funcionamiento de nuestro cerebro, antes de que seamos capaces de simularlo (Hawkins 2004).Existe Para los que abrazan una de estas dos opciones, la mente no es más que el ''inteligencia naturalsoftware'' de nuestro cerebro, el programa quenos sirve de base y punto de comparaciónle hace funcionar. La pregunta anterior puedereformularse así: Por eso, ambas posturas filosóficas tienden a ser ''¿sabemos lo que es lainteligencia natural, cómo surge y cómo se desarrolla, para poder emularla ennuestras máquinas?funcionalistas'' Porque si no sabemos lo que estamos buscando,difícilmente vamos a conseguirlo.
A esta pregunta se lehan dado cuatro respuestas filosóficas diferentes e incompatibles (Soler 2013En cambio, Polaino2014):los partidarios de las dos primeras opciones, que piensan que la mente y el cerebro son entes distintos, aunque puedan estar íntimamente relacionados, suelen opinar que crear una inteligencia artificial fuerte no estará nunca a nuestro alcance, porque antes tendríamos que ser capaces de crear mentes, lo que es probablemente imposible, puesto que la mente estaría fuera del alcance de la física, y por tanto de la tecnología.
<!--[if !supportLists]-->1.      <!--[endif]-->'''Dualismo metafísico''':
la mente y el cerebro son dos realidades diferentes. La primera es una
sustancia espiritual y no espacial, capaz de interaccionar con el cerebro, que
es material y espacial. Ambas entidades pueden existir independientemente la
una de la otra (Descartes 1647), aunque el cuerpo sin la mente acaba por
descomponerse.
<!--[if !supportLists]-->2.      <!--[endif]-->'''Dualismoneurofisiológico''': la mente y el cerebroson diferentes, pero están tan íntimamente unidas que llegan a constituir unaunidad (Eccles 1984), son dos estados complementarios y únicos de un mismo organismo(Damasio 1996).==Consideraciones finales==
<!--[if !supportLists]-->3.      <!--[endif]-->'''Monismo emergentista'''En este artículo hemos revisado las dos acepciones de la Inteligencia Artificial:la mente débil, que ya está entre nosotros, cuya inteligencia es un producto evolutivo emergente con auto-organizaciónbastante discutible, pero que hasurgido como un sistema complejo dado lugar a partir de sistemas más simples formados porlas neuronas (Clayton 1999muchas aplicaciones interesantes; y la fuerte, 2004la verdadera inteligencia, Damasio 1998, Kauffman 2003, Searle 2004)que aún no existe y quizá nunca llegue a existir.ClaytonY si existiera, por ejemplo, sostiene que las estructuras subyacentes no puedendeterminar por completo la evolución de ni siquiera hemos llegado a un acuerdo sobre los fenómenos mentales, pero medios que estos sípueden influir sobre aquellaspodríamos emplear para detectarla.
<!--[if !supportLists]-->4.      <!--[endif]-->'''Monismo reduccionista ofuncionalismo biológico''': la mente estátotalmente determinada por Siempre es arriesgado predecir el cerebrofuturo, y este por la red pero parece claro que muchos de neuronas los avances que loconstituyese anuncian con ligereza como inminentes están aún lejanos. El pensamiento humano Por ejemplo, no es un epifenómenoprobable que el objetivo de comunicarse con las máquinas en lenguaje totalmente natural se encuentre siquiera a pocas décadas de distancia. La  libertad Y, por supuesto, las predicciones de elección es una ilusión. Somosmáquinas programadas (Dennett 1991Ray Kurzweil, algunas de las cuales ya han sido refutadas por el paso del tiempo, no van a cumplirse en un futuro inmediato, Penrose 2004)suponiendo que sean posibles.
Es evidente que No sabemos, ni hay acuerdo entre lospartidarios de expertos, si será factible o no, por medios informáticos, construir inteligencias iguales o superiores a la opción número 4 (el monismo reduccionista) creen nuestra, con capacidad de formanatural que la inteligencia artificial fuerte debe ser posibleauto-consciencia. Por medios biológicos, incluso conmáquinas como las es evidente que ya tenemossí podemos hacerlo, cuando alcancen pues una potencia y velocidadsuficientes. Los partidarios de la opción número 3 (monismo emergentista)tienden persona puede engendrar hijos con inteligencia igual o superior a pensar que, para que la inteligencia artificial fuerte sea suya. ¿Será posible,primero tenemos que cumplir una condición previa: conocer a fondo elfuncionamiento través de nuestro cerebrola tecnología? Y si lo fuese, antes de ¿podemos asegurar que seamos capaces de simularlo(Hawkins 2004). Para los que abrazan una la construcción de estas dos opciones, la mente máquinas no esmás que el ''software'' de nuestrocerebro, el programa que le hace funcionar. Por eso, ambas posturas filosóficastienden a ser ''funcionalistas''.se convertirá en una amenaza para nuestra existencia?
En cambio, lospartidarios el estado actual de nuestros conocimientos no tenemos respuesta a esta pregunta. Esta cuestión se sale fuera del campo de las dos primeras opciones, que piensan que la mente informática y se adentra en el cerebroson entes distintosde la filosofía, aunque puedan estar pues está íntimamente relacionados, suelenopinar que crear una inteligencia artificial fuerte no estará nunca a nuestroalcance, porque antes tendríamos que ser capaces ligado con el problema de crear mentes, lo que esprobablemente imposible, puesto que la mente estaría fuera del alcance de y lafísicaconsciencia humanas, y por tanto que aún no está resuelto a satisfacción de la tecnologíatodos.
'''4.
Consideraciones finales'''
En este artículo hemosrevisado las dos acepciones de la Inteligencia Artificial: la débil, que yaestá entre nosotros, cuya inteligencia es bastante discutible, pero que ha dadolugar a muchas aplicaciones interesantes; y la fuerte, la verdaderainteligencia, que aún no existe y quizá nunca llegue a existir. Y si existiera,ni siquiera hemos llegado a un acuerdo sobre los medios que podríamos emplearpara detectarla.==Bibliografía==
Siempre es arriesgadopredecir el futuroAckerman, pero parece claro que muchos de los avances que se anunciancon ligereza como inminentes están aún lejanosEvan. Por ejemplo, no es probable queel objetivo de comunicarse con las máquinas en lenguaje totalmente natural seencuentre siquiera a pocas décadas de distancia2014. Y“Can Winograd Schemas Replace Turing Test for Defining Human-Level AI?” ''IEEE Spectrum''<nowiki>, por supuestoposted 29 Jul 2014, laspredicciones de Ray Kurzweil, algunas de las cuales ya han sido refutadas porel paso del tiempo, no van a cumplirse en un futuro inmediato, suponiendo que seanposibleshttp://spectrum.ieee.org/automaton/robotics/artificial-intelligence/winograd-schemas-replace-turing-test-for-defining-humanlevel-artificial-intelligence.</nowiki>
No sabemosAlfonseca, ni hayacuerdo entre los expertosManuel. 1980. “Automatic solution of sorites” ''Kybernetes'', si será factible o noVol.9:1, por medios informáticos,construir inteligencias iguales o superiores a la nuestra, con capacidad deauto37-consciencia44. Por medios biológicos, es evidente que sí podemos hacerlo,pues una persona puede engendrar hijos con inteligencia igual o superior a lasuyadoi: 10.1108/eb005540. ¿Será posible a través de la tecnología? Y si lo fuese, ¿podemos asegurarque la construcción de estas máquinas no se convertirá en una amenaza paranuestra existencia?
En el estado actual denuestros conocimientos no tenemos respuesta a esta pregunta<nowiki>Alfonseca, Manuel. 2015. Esta cuestión sesale fuera del campo de la informática y se adentra en “Vivir, o el poder de la filosofía, puesestá íntimamente ligado con abducción” http://divulciencia.blogspot.com/2015/10/vivir-o-el problema -poder-de -la mente y la consciencia humanas,que aún no está resuelto a satisfacción de todos-abduccion.html. </nowiki>
'''Referencias '''Alfonseca, Manuel; Cebrián, Manuel; Fernández-Anta, Antonio; Coviello, Lorenzo; Abeliuk, Andrés; Rahwan, Iyad. Inédito. “Superintelligence cannot be contained”.
= AckermanAsimov, EvanIsaac. 20141950. “Can Winograd Schemas Replace Turing Test for Defining Human-Level AI?” ''IEEE SpectrumI, robot''<nowiki>. Doubleday, posted 29 Jul 2014, http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/winograd-schemas-replace-turing-test-for-defining-humanlevel-artificial-intelligenceNew York.</nowiki> =
= Alfonseca, Manuel<nowiki>BBC News Online. 19802016. “Automatic solution of sorites” ''Kybernetes''“Artificial Intelligence: Google’s AlphaGo beats Go master Lee Sedol”, 12 March 2016, Volhttp://www.9:1, 37bbc.com/news/technology-4435785875. =</nowiki>
= doi: 10Bishop, Christopher M.1108/eb0055402006. = ''Pattern Recognition and Machine Learning''. Springer. 
= Bostrom, Nick. 2005. “A history of transhumanist thought”'' Journal of Evolution and Technology''<nowiki>Alfonseca, Manuel. 2015. “Vivir, o el poder de la abducción” http://divulcienciawww.blogspotnickbostrom.com/2015/10papers/vivir-o-el-poder-de-la-abduccionhistory.htmlpdf.</nowiki> =
= AlfonsecaBowling, ManuelMichael; CebriánBurch, ManuelNeil; Fernández-Anta, Antonio; CovielloJohanson, LorenzoMichael; AbeliukTammelin, Andrés; Rahwan, IyadOskari. Inédito2015. “Superintelligence cannot be contained”“Heads-up limit hold’em poker is solved” ''Science'', 347(6218):145–149. =
= AsimovCampbell, IsaacMurray; Hoane, A. Joseph and Feng-hsiung Hsu. 19502002. “Deep Blue” ''I, robotArtificial Intelligence''. Doubleday, New York134(1-2):57–83. =
= <nowiki>BBC Chess News Online. 20162004. “Artificial Intelligence: Google’s AlphaGo beats Go master Lee Sedol”, 12 March 2016, http://wwwen.bbcchessbase.com/newspost/technologybilbao-man-vs-machine-a-35785875resume.</nowiki> =
= Bishop, Christopher M<nowiki>Chess News. 20062005. ''Pattern Recognition and Machine Learning''http://en. Springerchessbase. =com/post/8-4-final-score-for-the-machines-what-next-.</nowiki>
= BostromClayton, NickPhilip. 20051999. “A history of transhumanist thought”“Neuroscience, the person and God: an emergentist account”. En '' Journal of Evolution and TechnologyNeuroscience & the person. Scientific perspectives on divine action''<nowiki>, ed. http://wwwRussell, R.J.nickbostrom; Murphy, N.com/papers/history; Meyering, T.pdf; Arbib, M. Vatican Observatory Publications, Vaticano.</nowiki> =
= BowlingClayton, Michael; Burch, Neil; Johanson, Michael; Tammelin, OskariPhilip. 20152004. “Heads-up limit hold’em poker is solved” ''ScienceMind and Emergence, from Quantum to Consciousness''. Oxford University Press, 347(6218):145–149Oxford. =
= CampbellClocksin, MurrayWilliam F.; HoaneMellish, AChristopher S. Joseph and Feng-hsiung Hsu. 20021981, 2003. “Deep Blue” ''Artificial IntelligenceProgramming in Prolog''. Springer, Berlin, 134(1New York. ISBN:  978-3-540-2):57–8300678-7. =
= <nowiki>Chess NewsDamasio, Antonio. 20041996. http://en''El error de Descartes''.chessbase.com/post/bilbao-man-vs-machine-aGijalbo-resumeMondadori, Barcelona.</nowiki> =
= <nowiki>Chess NewsDamasio, Antonio. 20051998. http''The feeling of what happens://enbody and emotion in the making of consciousness''.chessbase.com/post/8-4-final-score-for-the-machines-what-next-Harcourt, New York.</nowiki> =
= ClaytonDennett, PhilipDaniel. 19991991. “Neuroscience, the person and God: an emergentist account”. En ''Neuroscience & the person. Scientific perspectives on divine actionConsciousness explained'', ed. Russell, RThe Penguin Press.J.; Murphy, N.; Meyering, T.; Arbib, MExiste traducción española: ''La conciencia explicada''. Vatican Observatory PublicationsPaidos, VaticanoBarcelona. =
= ClaytonDescartes, PhilipRené. 20041647. ''Mind and Emergence, from Quantum to ConsciousnessLa description du corps humain''. Oxford University Press, Oxford. =
= ClocksinDickmanns, William FErnst Dieter.; Mellish, Christopher S. 1981, 20032007. ''Programming in PrologDynamic Vision for Perception and Control of Motion''. Springer, Berlin, New York. ISBN:  978-3-540-00678-7. =
= DamasioDong Yu, AntonioLi Deng. 19962015. ''El error de DescartesAutomatic speech recognition''. GijalboSpringer. ISBN: 978-Mondadori, Barcelona1-4471-5778-6. =
= DamasioEccles, AntonioJ. 1998; Robinson, D.N. 1984. ''The feeling wonder of what happens: body and emotion in the making of consciousnessbeing human. Our brain & our mind''. HarcourtFree Press, New York. =
= DennettFaundez Zanuy, DanielM. 19912000. ''Consciousness explainedTratamiento digital de voz e imagen y aplicación a la multimedia''. The Penguin Press. Existe traducción española: ''La conciencia explicada''. PaidosMarcombo, Barcelona. =
= DescartesFeigenbaum, RenéEdward A. 1647; McCorduck, Pamela. 1983. ''La description du corps humainThe fifth generation''. =Addison-Wesley, Reading MA. ISBN: 978-0-201-11519-2.
= DickmannsFerrucci, Ernst DieterDavid; Brown, Eric; Chu-Carroll, Jennifer; Fan, James; Gondek, David; Kalyanpur, Aditya A.; Lally, Adam; Murdock, J. William; Nyberg, Eric; Prager, John; Schlaefer, Nico; Welty, Chris. 20072010. “Building Watson: an overview of the DeepQA project” ''Dynamic Vision for Perception and Control of MotionAI Magazine''. Springer. =
= Dong YuFisher, Li DengAdam. 20152013. “Inside Google's quest to popularize self-driving cars”. 'Automatic speech recognition'Popular Science''<nowiki>. SpringerSeptember 18 2013. ISBNhttp: 978//www.popsci.com/cars/article/2013-109/google-4471self-5778driving-6car. =</nowiki>
= EcclesGoldberg, JDavid.; Robinson, D.N. 19841989. ''The wonder of being human. Our brain & our mindGenetic algorithms in search, optimization and machine learning''. Free PressAddison-Wesley, New YorkReading MA. ISBN: 978-0201157673. =
= Faundez ZanuyGurney, MK. 20001997. ''Tratamiento digital de voz e imagen y aplicación a la multimediaAn introduction to neural networks''. MarcomboRoutledge, BarcelonaLondon UK. ISBN: 1-85728-503-4. =
= FeigenbaumHawkins, Edward AJeff.; McCorduck, Pamela. 19832004. ''The fifth generationOn intelligence'', St. Addison-WesleyMartin’s Griffin, Reading MA. ISBN: 978-0-201-11519-2New York. =
= Ferrucci, David; Brown, Eric; ChuHernandez-Carroll, Jennifer; Fan, James; Gondek, David; Kalyanpur, Aditya A.; Lally, Adam; MurdockOrallo, J. William; Nyberg, Eric; Prager, John; Schlaefer, Nico; WeltyDowe, ChrisD L. 2010. “Building Watson"Measuring Universal Intelligence: Towards an overview of the DeepQA project” Anytime Intelligence Test". ''AI MagazineArtificial Intelligence Journal''174 (18): 1508–1539, doi:10.1016/j.artint.2010.09.006. =
= FisherHutchins, AdamW. 2013J. “Inside Google; Somers, Harold. 1992. ''s quest An introduction to popularize self-driving cars”machine translation. ''Popular Science''<nowiki>. September 18 2013Academic Press, London. httpISBN://www.popsci.com/cars/article/2013-09/google0-self12-driving362830-carX.</nowiki> =
<nowiki>IBM Research. 2011. http://researcher.watson.ibm.com/researcher/view_group.php?id= Goldberg, David2099. 1989Véase también http://www. ''Genetic algorithms in search, optimization and machine learning''research. Addison-Wesley, Reading MAibm. ISBN: 978com/cognitive-0201157673computing. =</nowiki>
= GurneyJacobs, KW. 1997W. , ''An introduction to neural networksThe monkey’s paw''. Routledge<nowiki>, London UK1902. ISBNhttp: 1//americanliterature.com/author/w-w-jacobs/short-85728story/the-503monkeys-4paw. =</nowiki>
= Hawkins<nowiki>Jochem, JeffTodd; Pomerleau, Dean; Kumar, Bala; Armstrong, Jeremy. 1995. “PANS: A Portable Navigation Platform”. The Robotics Institute. 2004http://www. ''On intelligence'', Stcs.cmu.edu/afs/cs/usr/tjochem/www/nhaa/navlab5_details.Martin’s Griffin, New Yorkhtml. =</nowiki>
= Hernandez-OralloJurafsky, JDaniel; DoweMartin, D L. 2010James H. "Measuring Universal Intelligence: Towards an Anytime Intelligence Test"2008. ''Artificial Intelligence JournalSpeech and Language Processing'' 174 (18): 1508–1539, doiPearson Prentice Hall. ISBN:10.1016/j.artint.2010.09.006978-0-13-187321-6. =
= HutchinsKauffman, WS.J2003.; Somers''Investigaciones: complejidad, Harold. 1992. auto-organización y nuevas leyes para una Biología general''An introduction to machine translation. ''Academic Press, LondonTusquets. ISBN: 0-12-362830-XBarcelona. =
= <nowiki>IBM ResearchKruse, Borgelt, Klawonn, Moewes, Steinbrecher, Held, 2013''. 2011. httpComputational Intelligence://researcherA Methodological Introduction''.watsonSpringer.ibm.com/researcher/view_group.php?id=2099. Véase también httpISBN://www.research.ibm.com/cognitive978-144-715012-computing1.</nowiki> =
= JacobsKurzweil, WRay.W1990., ''The monkey’s pawage of intelligent machines''<nowiki>, 1902. http://americanliterature.com/author/w-w-jacobs/short-story/the-monkeys-pawMIT Press, Cambridge.</nowiki> =
= <nowiki>JochemKurzweil, Todd; Pomerleau, Dean; Kumar, Bala; Armstrong, Jeremy. 1995Ray. “PANS: A Portable Navigation Platform”1999. ''The Robotics Institute. http://www.cs.cmu.edu/afs/cs/usr/tjochem/www/nhaa/navlab5_details.htmlage of spiritual machines'', Penguin Books, New York.</nowiki> =
= JurafskyKurzweil, Daniel; Martin, James HRay. 20082005. ''Speech and Language ProcessingThe singularity is near'', Pearson Prentice Hall. ISBN: 978-0-13-187321-6Viking Books, New York. =
= KauffmanKurzweil, SRay. 20032012. ''InvestigacionesHow to create a mind: complejidad, auto-organización y nuevas leyes para una Biología generalthe secret of human thought revealed'', Viking Books, New York. Tusquets. Barcelona. =
= KruseLegg, BorgeltShane; Hutter, Klawonn, Moewes, Steinbrecher, Held, 2013Marcus. 2007. ''. Computational A Collection of Definitions of Intelligence: A Methodological Introduction''(Technical report). SpringerIDSIA. ISBNarXiv: 978-144-715012-10706.3639. =
= Kurzweil<nowiki>López de Mántaras, RayRamón. 19902013. ''The age of intelligent machines'', MIT Press, Cambridge“Ramón López de Mántaras: Intentar desarrollar una inteligencia artificial igual que la humana es absurdo”. CiViCa. http://www.investigadoresyprofesionales.org/drupal/content/ram%C3%B3n-l%C3%B3pez-de-m%C3%A1ntaras-intentar-desarrollar-una-inteligencia-artificial-igual-que-la-humana. =</nowiki>
= KurzweilLoveland, RayDonald W. 19991978. ''The age of spiritual machinesAutomated theorem proving: A logical basis'', Penguin Books, New York. =Fundamental Studies in Computer Science Vol. 6. North-Holland Publishing.
= KurzweilMcCarthy, RayJohn. 20052007. ''The singularity What is nearartificial intelligence?'', Viking Books, New York<nowiki> http://www-formal.stanford.edu/jmc/whatisai/whatisai.html. =</nowiki>
= KurzweilMcCulloch, RayWarren. 2012Pitts, Walter. 1943. "A Logical Calculus of Ideas Immanent in Nervous Activity". ''How to create a mind: the secret Bulletin of human thought revealedMathematical Biophysics'', Viking Books, New York5(4): 115–133. doi: 10.1007/BF02478259. =
= LeggManning, ShaneChristopher; HutterSchütze, MarcusHinrich. 20071999. ''A Collection Foundations of Definitions of IntelligenceStatistical Natural Language Processing'' (Technical report). IDSIA<nowiki>. arXiv:0706The MIT Press.3639ISBN 978-0-262-13360-9. =</nowiki>
= Manning, Christopher; Raghavan, Prabhakar; Schütze, Hinrich. 2008. ''Introduction to Information Retrieval''<nowiki>López de Mántaras, Ramón. 2013. “Ramón López de Mántaras: Intentar desarrollar una inteligencia artificial igual que la humana es absurdo”. CiViCa. http://www.investigadoresyprofesionalesCambridge University Press.org/drupal/content/ram%C3%B3n-l%C3%B3pez-de-m%C3%A1ntaras-intentar-desarrollar-una-inteligenciaISBN 978-artificial0-igual521-que86571-la-humana.5</nowiki> =
= LovelandMinski, Donald WMarvin; Papert, Seymour. 19781969, 1972. ''Automated theorem provingPerceptrons: A logical basisAn Introduction to Computational Geometry''. Fundamental Studies in Computer Science Vol. 6. North<nowiki>, The MIT Press, Cambridge MA, ISBN 0-262-63022-Holland Publishing2. =</nowiki>
= McCarthyMinski, JohnMarvin. 20071980. “Decentralized minds”. ''What is artificial intelligence?Behavioral and brain sciences''<nowiki> http://www3(3) 439-formal440.stanforddoi:  10.edu1017/jmc/whatisai/whatisai.htmlS0140525X00005914.</nowiki> =
= McCulloch, Warren. Pitts, Walter. 1943. "A Logical Calculus of Ideas Immanent in Nervous Activity"NASA 2011. ''Bulletin of Mathematical BiophysicsCassini-Huygens quick facts'' 5(4)<nowiki>. http: 115–133//saturn.jpl. doi: 10nasa.1007gov/mission/quickfacts/BF02478259. =Consultado 2011-08-20.</nowiki>
= ManningNilsson, Christopher; Schütze, HinrichNils. 19991998. ''Foundations of Statistical Natural Language ProcessingArtificial Intelligence: A New Synthesis''<nowiki>. The MIT PressMorgan Kaufmann. ISBN 978-01-26255860-13360467-94.</nowiki> =
= ManningNorris, Christopher; Raghavan, Prabhakar; Schütze, HinrichJames R. 20081998. ''Introduction to Information RetrievalMarkov chains''<nowiki>. Cambridge University Press. ISBN 978-0-521-86571-5</nowiki> =
= MinskiPenrose, Marvin; Papert, SeymourRoger. 1969, 19722004. ''Perceptrons: An Introduction The  Road to Computational GeometryReality''<nowiki>, The MIT Press, Cambridge MA, ISBN 0-262-63022-2.</nowiki> =Random House. Londres.
= MinskiPolaino, MarvinAquilino. 19802014. “Decentralized minds”“¿Ha demostrado la neurociencia que la mente no es más que un subproducto de la materia?”. En ''Behavioral and brain sciences60 preguntas sobre ciencia y fe respondidas por 26 profesores de universidad'' 3(3) 439-440, ed. doi:  10Soler Gil, Francisco José, y Alfonseca, Manuel.1017/S0140525X00005914Stella Maris, Barcelona. =
= NASA 2011Popper, Karl. 1962. ''Cassini-Huygens quick factsLa lógica de la investigación científica''<nowiki>. http://saturn.jpl.nasa.gov/mission/quickfacts/. Consultado 2011-08-20, Tecnos.</nowiki> =
= NilssonPowers, NilsDavid; Turk, Christopher. 19981989. ''Artificial Intelligence: A New SynthesisMachine Learning of Natural Language''<nowiki>. Morgan KaufmannSpringer-Verlag. ISBN 978-10-55860387-46719557-45.</nowiki> =
= NorrisRosenblatt, James RF. 19981958. "The Perceptron: A probabilistic model for information storage and organization in the brain". ''Markov chainsPsychological Review''65 (6): 386–408. doi: 10. Cambridge University Press1037/h0042519. =
= PenroseRussell, RogerStuart J. 2004; Norvig, Peter. 2003. ''The  Road to RealityArtificial Intelligence: a modern approach''. Random HousePrentice Hall, Upper Saddle River. LondresISBN: 0-13-790395-2. =
= PolainoSchaeffer, AquilinoJ. 2014; Burch, N. “¿Ha demostrado la neurociencia que la mente no es más que un subproducto de la materia?”; Bjornsson, Y. En ''60 preguntas sobre ciencia y fe respondidas por 26 profesores de universidad''; Kishimoto, edA. Soler Gil; Muller, Francisco JoséM.; Lake, y AlfonsecaR.; Lu, ManuelP. Stella Maris; Sutphen, S. 2007. “Checkers Is Solved” ''Science'', Barcelona317(5844):1518–1522. =
= PopperSearle, KarlJohn R. 19621980. “Minds, brains and programs”. ''La lógica de la investigación científicaBehavioral and mind sciences''3 (3): 417–457, Tecnosdoi: 10.1017/S0140525X00005756. =
= PowersSearle, David; Turk, ChristopherJohn R. 19891999. ''Machine Learning of Natural LanguageMind, language and society''<nowiki>. Springer-Verlag, Basic Books, New York. ISBN 978-0-387465-1955704521-59.</nowiki> =
= RosenblattSearle, FJohn R. 1958. "The Perceptron: A probabilistic model for information storage and organization in the brain"2004. ''Psychological ReviewMind. A Brief Introduction'' 65 (6): 386–408. doi: 10Oxford University Press.1037/h0042519Oxford. =
= RussellSiddique, Stuart J.Adeli; NorvigNazmul, PeterHojjat. 20032013. ''Artificial Computational Intelligence: a modern approachSynergies of Fuzzy Logic, Neural Networks and Evolutionary Computing''. Prentice Hall, Upper Saddle River. ISBN: 0-13-790395-2John Wiley & Sons. =
= SchaefferSoler Gil, JFrancisco José.; Burch, N.; Bjornsson, Y.; Kishimoto, A.; Muller, M2013.; Lake, R.; Lu, P.; Sutphen, S. 2007. “Checkers Is Solved” ''ScienceMitología materialista de la ciencia''. Ediciones Encuentro, 317(5844):1518–1522Madrid. =
= SearleSutskever, John R. 1980Ilya; Vinyals, Oriol; Le, Quoc V. “Minds, brains and programs”2014. ''Behavioral and mind sciencesSequence to Sequence Learning with Neural Networks'' 3 (3): 417–457, doi. arXiv: 101409.1017/S0140525X000057563215. =
= SearleTesauro, John RGerald (1989). 1999“Neurogammon Wins Computer Olympiad”. ''Mind, language and societyNeural Computation''<nowiki>, Basic Books, New York1 (3): 321–323. ISBN 0-465-04521-9doi: 10.<1162/nowiki> =neco.1989.1.3.321. 
= SearleTuring, John RAlan. 20041937. “On Computable Numbers With an Application to the Entscheidungsproblem”. ''Mind. A Brief IntroductionProceedings of the London Mathematical Society'', Series 2, Vol.42, 230–265, doi: 10.1112/plms/s2-42. Oxford University Press1. Oxford230. =
= SiddiqueTuring, Adeli; Nazmul, HojjatAlan. 20131950. “Computing Machinery and Intelligence” ''Computational Intelligence: Synergies of Fuzzy Logic, Neural Networks and Evolutionary ComputingMind''LIX (236): 433–460. doi:10.1093/mind/LIX.236. John Wiley & Sons433. =
= Soler Gil, Francisco JoséUnited Nations. 20132015. ''Mitología materialista de la cienciaRevision of World Population Prospects''<nowiki>. Ediciones Encuentro, Madrid http://esa. =un.org/wpp/Demographic-Profiles/index.shtm.</nowiki>
= SutskeverWeizenbaum, Ilya; Vinyals, Oriol; Le, Quoc VJoseph. 1966. 2014"ELIZA—A computer program for the study of natural language communication between man and machine". ''Sequence to Sequence Learning with Neural NetworksCommunications of the ACM''9 (1): 36–45, doi: 10. arXiv:14091145/365153.3215365168. =
= TesauroWiener, Gerald (1989)Norbert. “Neurogammon Wins Computer Olympiad”1948, 1961. ''Neural ComputationCybernetics'' 1 (3): 321–323. doi: 10.1162/neco.1989.1.3.321, The MIT Press, Cambridge Mass. =
= TuringWolfram, AlanStephen. 19372012. “On Computable Numbers With an Application to the Entscheidungsproblem”“Announcing Wolfram|Alpha Pro”. ''Proceedings of the London Mathematical Society''Wolfram|Alpha Blog, Series 2February 8, Vol2012.42, 230–265, doi[http: 10//blog.wolframalpha.1112com/2012/plms02/s208/announcing-42wolframalpha-pro/ http://blog.1wolframalpha.230. =com/2012/02/08/announcing-wolframalpha-pro/]
{{Citar|url = Turing, Alan. 1950. “Computing Machinery and Intelligence” ''Mind'' LIX (236): 433–460. doihttp:10.1093/mind/LIXdia.236austral.433edu. ar/Inteligencia_artificial|cabecera =Alfonseca, Manuel. 2016. "Inteligencia artificial"}}
= United Nations. 2015. ''Revision of World Population Prospects''<nowiki>.  http://esa.un.org/wpp/Demographic-Profiles/index.shtm.</nowiki> =
= Weizenbaum, Joseph. 1966. "ELIZA—A computer program for the study of natural language communication between man and machine". ''Communications of the ACM'' 9 (1): 36–45, doi: 10.1145/365153.365168. =Derechos de autor==
= Wiener, NorbertDERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E. 1948, 1961Vanney - 2016. ''Cybernetics'', The MIT Press, Cambridge Mass. =
= <nowiki>Wolfram, Stephen. 2012. “Announcing Wolfram|Alpha Pro”. Wolfram|Alpha Blog, February 8, 2012. httpISSN://blog.wolframalpha.com/2012/02/08/announcing2524-wolframalpha-pro/</nowiki> =941X
=<nowiki/>=[[Categoría:Conocimiento]][[Categoría:Filosofía de la técnica]]
Autores, Editores, Burócratas, Administradores
2246
ediciones

Menú de navegación