Inteligencia artificial

4027 bytes eliminados, 12:04 14 abr 2016
sin resumen de edición
Desde el principio de la historia de la informática se planteó el problema de si será posible algún día diseñar y programar computadores y sistemas complejos semejantes para que actúen con una inteligencia comparable, o incluso superior a la humana. Se trata de una cuestión que nos afecta profundamente desde el punto de vista sentimental, lo que explica el éxito de obras clásicas de ficción como ''Frankenstein'' o ''El golem'', que expresan en forma literaria el viejo sueño deconstruir hombres artificiales, ya sea por medios biológicos no naturales, o en
forma de autómatas mecánicos.
La discrepancia entreestas expectativas y el carácter repetitivo y rígido de la mayor parte denuestras aplicaciones informáticas (incluso muchas de las más avanzadas en laactualidad) no ha sido suficiente para poner en duda la factibilidad de esesueño. La verdad es que, a lo largo del tiempo, hay bastantes actividadeshumanas supuestamente inteligentes (como jugar al ajedrez) que han ido cayendobajo el dominio de los computadores. Pero por una reacción comprensible, sueleocurrir que esas actividades, una vez dominadas por programas informáticos, yano nos parecen tan inteligentes. Existe incluso una definición de ''inteligencia artificial'' basada en ello, quepodemos considerar ''irónica'', pues suintención no es seria, pero que encierra un fondo de verdad: ''inteligencia artificial'' sería '''todo aquello que todavía no sabemos hacercon un ordenador'''. Como el horizonte, la ''inteligenciaartificial ''de verdad parece alejarse de nosotros a medida que nos movemoshacia ella.
Esta entrada pretendeofrecer al lector una visión actualizada de la inteligencia artificial, en susdos acepciones de ''inteligencia artificialdébil ''(la que ya tenemos y está a nuestro alcance) y de ''inteligencia artificial fuerte ''(laconstrucción y programación de máquinas tan inteligentes como nosotros o más),junto con una revisión de las diversas posturas filosóficas respecto a lacuestión de si este objetivo será factible, o por el contrario no será posible
conseguirlo.
'''1. Definición de la inteligencia
artificial'''
La ==Definición de la inteligencia artificiales una de las ramas más antiguas de la investigación en programación deordenadores. Casi desde el principio de su historia, se han construidoprogramas que se comportan de un modo que, cuando los seres humanos hacen lomismo, solemos calificar de inteligente. Sin embargo, los avances en esta áreano han sido constantes, pues se han visto sometidos a altibajos. Además, losinvestigadores no siempre se ponen de acuerdo en la definición de esta rama dela informática, por lo que no es fácil distinguir de forma clara y unívoca lasdisciplinas y aplicaciones que pertenecen a este campo.==
Algunas La inteligencia artificial es una de lasdefiniciones del campo ramas más antiguas de la inteligencia artificial son claramenteinsatisfactoriasinvestigación en programación de ordenadores. Así John McCarthyCasi desde el principio de su historia, se han construido programas que acuñó el nombre se comportan de la disciplinaun modo que, cuando los seres humanos hacen lo mismo, ladefine así: ''ciencia e ingeniería para lafabricación solemos calificar de máquinas inteligentesinteligente. Sin embargo, especialmente programas los avances en esta área no han sido constantes, pues se han visto sometidos a altibajos. Además, los investigadores no siempre se ponen de ordenadorinteligentes'' (McCarthy 2007). El problema acuerdo en la definición de las definiciones esta rama de este tipoes la informática, por lo que no se define lo es fácil distinguir de forma clara y unívoca las disciplinas y aplicaciones que quiere decir ''inteligente''pertenecen a este campo.
Una definiciónparecidaAlgunas de las definiciones del campo de la inteligencia artificial son claramente insatisfactorias. Así John McCarthy, bastante extendidaque acuñó el nombre de la disciplina, es estala define así: ''estudioy diseño ciencia e ingeniería para la fabricación de agentes máquinas inteligentes, especialmente programas de ordenador inteligentes'' (Nilsson 1998, Legg McCarthy 2007), donde un ''agente inteligente'' se define como ''un ente que percibe su entorno y realizaacciones que le permiten alcanzar sus objetivos con . El problema de las máximas posibilidadesdefiniciones de éxito''. Aquí el problema este tipo es que no se define lo que significa el quiere decir ''éxito en alcanzar sus objetivosinteligente''.
La siguiente Una definiciónparecida, bastante extendida, es esta: ''estudio y diseño de la inteligencia artificial está bastante aceptadaagentes inteligentes'' (Nilsson 1998, Legg 2007), al menos para donde un ''agente inteligente'' se define como ''un ente que percibe su entorno y realiza acciones que le permiten alcanzar sus objetivos con las máximas posibilidades de éxito''. Aquí el problema es que no se define lo que seha hecho hasta ahora significa el ''éxito en este campo: alcanzar sus objetivos''.
'''Definición1:''' ''Llamamos''La siguiente definición de la inteligencia artificial'' está bastante aceptada, al conjuntode técnicas menos para lo que tratan de resolver problemas relacionados con el proceso deinformación simbólica, utilizando para ello métodos heurísticos''.se ha hecho hasta ahora en este campo:
No es nuevo que lainformación contenida en la memoria de un ordenador puede ser simbólica, peroen las aplicaciones de '''Definición 1:''' ''Llamamos'' inteligencia artificial, en las que intentamos (enprincipio) que la máquina razone de forma parecida ''al hombre, la informaciónque se procesa será a menudo equiparable a ideas o conocimientos y sólo podrárepresentarse conjunto de forma simbólica. Esto no significa técnicas que no pueda haberinformación numérica en una aplicación tratan de inteligencia artificial. Por resolver problemas relacionados con el contrario,aparece frecuentemente. Pero así como en la programación clásica puede ocurrir quetoda o casi toda la proceso de información procesada por una aplicación determinada seanuméricasimbólica, en inteligencia artificial generalmente esto no es admisible. Lainformación simbólica tiene que estar presente de alguna manerautilizando para ello métodos heurísticos''.
En los problemas de inteligenciaartificial No es frecuente nuevo que se utilicen métodos la información contenida en la memoria de búsqueda de soluciones un ordenador puede ser simbólica, pero en unespacio las aplicaciones de configuración más o menos grandeinteligencia artificial, con objeto en las que intentamos (en principio) que la máquina razone de encontrar un métodoóptimo (o forma parecida al menos cuasi-óptimo) para obtener el objetivo deseado. A veces hombre, la información que serealizan búsquedas exhaustivas, procesa será a menudo equiparable a lo ancho ideas o en profundidad, que analizan todaslas posibilidades conocimientos y escogen, entre ellas, la mejorsólo podrá representarse de forma simbólica. Pero Esto no significa que no pueda haber información numérica en general, si una aplicación de inteligencia artificial. Por elproceso es complejocontrario, el espacio de configuración es desmesurado y los métodosexhaustivos no son factibles, pues se producirá una ''explosión combinatoria'' aparece frecuentemente. Pero así como en la programación clásica puede ocurrir que el número de caminos crece enormemente,desbordando toda o casi toda la capacidad de cálculo de los ordenadores actualesinformación procesada por una aplicación determinada sea numérica, e incluso en inteligencia artificial generalmente esto no es admisible. La información simbólica tiene que estar presente detodos los ordenadores posiblesalguna manera.
En la práctica, hay los problemas de inteligencia artificial es frecuente queutilizar se utilicen métodos de búsqueda de soluciones en un espacio de configuración más rápidos o menos grande, con objeto de encontrar un método óptimo (o al menos cuasi-óptimo) para obtener el objetivo deseado. A veces se realizan búsquedas exhaustivas, a lo ancho o en profundidad, que lleven en poco tiempo a una soluciónaceptableanalizan todas las posibilidades y escogen, entre ellas, aunque no sea precisamente la óptimamejor. Estos métodosPero en general, si el proceso es complejo, que se apoyangeneralmente en información procedente el espacio de la experienciaconfiguración es desmesurado y los métodos exhaustivos no son factibles, pues se llaman por ello producirá una ''heurísticosexplosión combinatoria'' e incorporan estrategias en la quelimitan drásticamente el número de caminos crece enormemente, desbordando la búsquedacapacidad de cálculo de los ordenadores actuales, permitiendo encontrar una solución razonablepara un problema, a pesar e incluso de que el espacio de búsqueda sea muy extensotodos los ordenadores posibles.
De acuerdo con En ladefinición 1práctica, hay que utilizar métodos más rápidos que lleven en poco tiempo a una aplicación solución aceptable, aunque no sea precisamente la óptima. Estos métodos, que se apoyan generalmente en información procedente de inteligencia artificial tiene la experiencia, se llaman por ello ''heurísticos'' e incorporan estrategias que cumplir lascondiciones siguientes:limitan drásticamente la búsqueda, permitiendo encontrar una solución razonable para un problema, a pesar de que el espacio de búsqueda sea muy extenso.
<!--[if !supportLists]-->·                   <!--[endif]-->Que al menos parte De acuerdo con la definición 1, una aplicación dela información a tratar tenga carácter simbólico.inteligencia artificial tiene que cumplir las condiciones siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->* Que el problema al menos parte de la información aresolver dé lugar a un espacio de búsqueda de soluciones (espacio deconfiguración) muy extenso, que no se trate de un problema trivial, que no seaposible resolverlo con una simple búsqueda exhaustivatratar tenga carácter simbólico.
<!--[if !supportLists]-->·                   <!--[endif]-->* Que la forma máspráctica de abordar el problema sea la utilización a resolver dé lugar a un espacio de búsqueda de soluciones (espacio de reglas heurísticasbasadas en la experienciaconfiguración) muy extenso, que acorten el proceso no se trate de un problema trivial, que no sea posible resolverlo con una simple búsqueda de soluciones yeviten la explosión combinatoriaexhaustiva.
<!--[if !supportLists]-->·                   <!--[endif]-->En principio, * Que la forma más práctica de abordar elprograma debería ser capaz problema sea la utilización de extraer esas reglas heurísticas de su propiabasadas en la experiencia, es decir, debe ser capaz de aprender. Para ello se pueden utilizartécnicas como que acorten el reconocimiento proceso de patrones (Bishop 2006), las cadenas búsqueda deMarkov (Norris 1998) o los algoritmos genéticos (Goldberg 1989), que en sí no sereducen a soluciones y eviten la inteligencia artificial, pues pueden aplicarse en muchos otroscampos, pero pueden ser útiles también en esteexplosión combinatoria.
Es preciso distinguir* En principio, el programa debería ser capaz de extraer esas reglas heurísticas de su propia experiencia, es decir, debe ser capaz de aprender. Para ello se pueden utilizar técnicas como el reconocimiento de patrones (Bishop 2006), las cadenas de Markov (Norris 1998) o los algoritmos genéticos (Goldberg 1989), que en sí no se reducen a la inteligencia artificial de otras tecnologías menos potentes, como lassiguientes:pues pueden aplicarse en muchos otros campos, pero pueden ser útiles también en este.
<!--[if !supportLists]-->·                   <!--[endif]-->''Inteligenciacomputacional'': es una versión ''light'' de Es preciso distinguir la inteligencia artificial, quemaneja datos esencialmente numéricos, de los que es capaz de ectraer patronesutilizando conocimientos otras tecnologías menos completos y exactos que los de potentes, como las aplicacionesde inteligencia artificial (Siddique 2013).siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->* ''Sistemasbio-inspiradosInteligencia computacional'': son sistemas informáticos para es una versión ''light'' de laresolución inteligencia artificial, que maneja datos esencialmente numéricos, de los que es capaz de problemas complejos extraer patrones utilizando conocimientos menos completos y exactos que se inspiran en conceptos biológicos, comola evolución (algoritmos genéticos) o el ADN los de las aplicaciones de inteligencia artificial (computación mediante ADNSiddique 2013). Nopueden considerarse inteligentes.
* ''Sistemas bio-inspirados'1': son sistemas informáticos para la resolución de problemas complejos que se inspiran en conceptos biológicos, como la evolución (algoritmos genéticos) o el ADN (computación mediante ADN).1No pueden considerarse inteligentes.Las dos acepciones de la inteligencia artificial'''
En lo que sí están de
acuerdo todos los investigadores es en que los programas de inteligencia
artificial actuales no permiten atribuir a las computadoras la capacidad de
pensar y de actuar con verdadera inteligencia, en oposición a la apariencia de
inteligencia, que obviamente es más fácil de conseguir. Por eso, el campo de la
inteligencia artificial se divide en dos, uno que existe realmente, y el otro
que de momento sólo es un objetivo inalcanzable, mejor o peor definido desde el
punto de vista filosófico. Esos dos campos son los siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->''Inteligenciaartificial débil'', que abarca todas lasaplicaciones ===Las dos acepciones de las que disponemos hasta ahora, en las que la máquina actúa conapariencia de inteligencia, pero está claro que no piensa. artificial===
<!--[if !supportLists]-->·                   <!--[endif]-->''InteligenciaEn lo que sí están de acuerdo todos los investigadores es en que los programas de inteligencia artificial fuerte'', que abarca actuales no permiten atribuir a lashipotéticas máquinas programadas cuya computadoras la capacidad de pensar y de actuar con verdadera inteligencia fuese comparable o superior, en oposición a la humanaapariencia de inteligencia, que obviamente es más fácil de conseguir. Por eso, el campo de la inteligencia artificial se divide en dos, uno que existe realmente, y el otro que de momento sólo es un objetivo inalcanzable, mejor o peor definido desde el punto de vista filosófico.Esos dos campos son los siguientes:
* '''2.Inteligencia artificial débil''', que abarca todas las aplicaciones de las que disponemos hasta ahora, en las que la máquina actúa con apariencia de inteligencia, pero está claro que no piensa.
Todo lo que se halogrado hasta ahora en este campo es claramente * ''inteligencia Inteligencia artificial débilfuerte''. Esto es lo , que nos va abarca a ocupar enesta parte del artículo. Últimamente se habla mucho de que la ''las hipotéticas máquinas programadas cuya inteligencia artificial fuerte'' está fuese comparable o superior apunto de conseguirse. En la tercera parte volveremos sobre este problema yanalizaremos esas prediccioneshumana.
'''2.1.
Breve historia de la inteligencia artificial'''
Desde la más remotaantigüedad, el hombre no ha dejado de buscar medios para disminuir el esfuerzo necesariopara la realización de su trabajo. El primer paso en esta dirección se dio haceunos dos millones de años, con la invención de las armas y las herramientas. Elsegundo, hace al menos setecientos mil años, se plasmó en el dominio del fuego.Otro paso importante (la revolución neolítica) tuvo lugar hace unos diez milaños, con el comienzo de la agricultura y la ganadería. El ganado se utilizódesde el principio como un nuevo tipo de herramienta que permitía a su poseedorrealizar más trabajo con menos esfuerzo. El cuarto paso trascendental fue lainvención de la escritura, que tuvo lugar hace cosa de cinco mil años y abriópaso al arte literario y a la posibilidad de guardar información fuera de nuestrocerebro y de nuestro cuerpo, en papiro, pergamino, papel, etcétera.==Inteligencia artificial débil==
Hace un poco más de doscientosaños comenzó una nueva revolución tecnológica, la revolución industrial, cuyasposibilidades aún no Todo lo que se han agotadoha logrado hasta ahora en este campo es claramente ''inteligencia artificial débil''. En sus primeras fases, los siglos XVIII,XIX y la primera mitad Esto es lo que nos va a ocupar en esta parte del XX, esta revolución eliminó a los animales-herramientaartículo. Últimamente se habla mucho de que habían dominado la tecnología durante casi diez milenios, que fueronsustituidos por máquinas mecánicas propulsadas por fuentes ''inteligencia artificial fuerte'' está a punto de energía nuevas,como la térmica, la eléctrica, conseguirse. En la química de los combustibles naturales tercera parte volveremos sobre este problema y, yaen el siglo XX, la nuclear, cuya existencia ni se sospechaba a finales del sigloXIXanalizaremos esas predicciones.
Hacia la segunda mitad
del siglo XX apareció un nuevo tipo de máquinas, las computadoras electrónicas,
que ya no tratan de complementar el esfuerzo físico humano y extender el campo
de acción de sus miembros. Su ámbito de aplicación es amplificar las
actividades mentales del hombre. Estas máquinas realizan cálculos complejos a
velocidades muy superiores a las nuestras, aunque suele decirse que son
rígidas, que hay que preverlo todo y especificarlo claramente, porque en caso
contrario nos encontraremos con resultados inesperados. Muy pocos programas exhiben
un comportamiento que se pueda calificar de inteligente.
Casi desde el principiode la ===Breve historia de la informática fue posible programar computadoras para actuarde una forma que sí suele considerarse inteligente. En 1956, Herbert Gelernter,del Laboratorio de IBM en Poughkeepsie, construyó un programa capaz de resolverteoremas de geometría plana, sorprendente para su época, que se considera unode los primeros ejemplos de inteligencia artificial. Recuérdese que lascomputadoras pertenecían entonces a la primera generación y estaban construidascon válvulas de vacío. ===
Ante este ejemplo yotros parecidos que surgieron por entoncesDesde la más remota antigüedad, los pioneros el hombre no ha dejado de buscar medios para disminuir el esfuerzo necesario para la inteligencia artificialrealización de su trabajo. El primer paso en esta dirección se dio hace unos dos millones de años,encabezados por John McCarthy (1927-2011)con la invención de las armas y las herramientas. El segundo, hace al menos setecientos mil años, se reunieron en un seminario plasmó en elDartmouth College de Hanover dominio del fuego. Otro paso importante (USAla revolución neolítica). Además tuvo lugar hace unos diez mil años, con el comienzo de imponer nombre a la nuevadisciplina (''inteligencia artificial'')lanzaron las campanas al vuelo y predijeron que en una década habría programascapaces de traducir perfectamente entre dos lenguas humanas agricultura y la ganadería. El ganado se utilizó desde el principio como un nuevo tipo de jugar alajedrez mejor herramienta que el campeón del mundopermitía a su poseedor realizar más trabajo con menos esfuerzo. Esto no sería más que el primer El cuarto paso.Pronto sería posible construir máquinas capaces trascendental fue la invención de comportarse con inteligenciaigual o superior a la nuestraescritura, con lo que entraríamos en una nueva vía en tuvo lugar hace cosa de cinco mil años y abrió paso al arte literario y a laevolución posibilidad de nuestra sociedad. El viejo sueño guardar información fuera de nuestro cerebro y de construir hombres artificialesse habría hecho realidadnuestro cuerpo, en papiro, pergamino, papel, etcétera.
Pero las cosas Hace un poco más de doscientos años comenzó una nueva revolución tecnológica, la revolución industrial, cuyas posibilidades aún nosucedieron como aquellos optimistas preveíanse han agotado. Es cierto que ese mismo año ArthurSamuelEn sus primeras fases, los siglos XVIII, de IBMXIX y la primera mitad del XX, construyó un programa para jugar esta revolución eliminó a las damas los animales-herramienta que guardabainformación sobre el desarrollo habían dominado la tecnología durante casi diez milenios, que fueron sustituidos por máquinas mecánicas propulsadas por fuentes de las partidas que jugaba y energía nuevas, como la utilizaba para modificarsus jugadas futuras (es decirtérmica, aprendía). En pocos añosla eléctrica, tras un númerosuficiente la química de partidaslos combustibles naturales y, el programa fue capaz de vencer a su creador y desempeñabaun papel razonable ya en los campeonatos oficiales. Pero el juego de las damas esincomparablemente menos complicado que el ajedrezsiglo XX, la nuclear, y pronto cuya existencia ni se vio que este ibasospechaba a ser un hueso bastante más duro de roerfinales del siglo XIX.
En los últimos años deHacia la década segunda mitad del siglo XX apareció un nuevo tipo de 1950máquinas, Alex Bernsteinlas computadoras electrónicas, que ya no tratan de IBM, construyó un programa capaz de jugaral ajedrez como un principiante, que fue aireado por la prensa como complementar el primerpaso hacia esfuerzo físico humano y extender el dominio campo de acción de sus miembros. Su ámbito de aplicación es amplificar las actividades mentales del ajedrez por hombre. Estas máquinas realizan cálculos complejos a velocidades muy superiores a las computadoras. Pero el objetivonuestras, aunque suele decirse que son rígidas, ganaral campeón del mundoque hay que preverlo todo y especificarlo claramente, o al menos desempeñar un buen papel porque en los torneos caso contrario nos encontraremos con jugadoreshumanos, se retrasaría más de 30 años respecto a la fecha previstaresultados inesperados. En cuanto ala traducción de textos entre dos lenguas naturales, también resultó mucho másdifícil de lo Muy pocos programas exhiben un comportamiento que se preveía, como se verá en el apartado siguientepueda calificar de inteligente.
El fracaso Casi desde el principio de laspredicciones la historia de los expertos provocó el desánimo la informática fue posible programar computadoras para actuar de los investigadores eninteligencia artificialuna forma que sí suele considerarse inteligente. En 1956, Herbert Gelernter, muchos del Laboratorio de los cuales se dedicaron a otras cosas. Elproblema se complicó IBM en 1969Poughkeepsie, cuando Marvin Minski y Seymour Papert (Minski1969) demostraron matemáticamente que las redes neuronales artificiales construyó un programa capaz de resolver teoremas de unao dos capas (perceptrones sin capa oculta)geometría plana, sorprendente para su época, con las que se venía investigandodesde los años cincuenta, no pueden realizar una función Booleana tan sencillacomo “o exclusivo” (la suma módulo 2). Esto sí se podía conseguir con una red sencillaconsidera uno de tres capas, pero los ordenadores primeros ejemplos de inteligencia artificial. Recuérdese que las computadoras pertenecían entonces no eran bastante rápidos nitenían bastante memoria para trabajar a la primera generación y estaban construidas con redes complejas válvulas de tres capasvacío.
Durante Ante este ejemplo y otros parecidos que surgieron por entonces, los añossetenta, el interés por pioneros de la inteligencia artificial , encabezados por John McCarthy (1927-2011), se renovó gracias reunieron en un seminario en el Dartmouth College de Hanover (USA). Además de imponer nombre a laaparición de los sistemas expertos. De nuevo se nueva disciplina (''inteligencia artificial'') lanzaron las campanas al vueloy se predijeron avances inmediatos demasiado ambiciosos. Arrastrado por estatendencia, que en una década habría programas capaces de traducir perfectamente entre dos lenguas humanas y de jugar al ajedrez mejor que el gobierno campeón del Japón puso en marcha a finales de los setenta mundo. Esto no sería más que el ''proyecto de la quinta generación'', cuyoobjetivo era ponerse en cabeza de la investigación informática mundial, desarrollandoen diez años (siempre en diez años) primer paso. Pronto sería posible construir máquinas capaces de ''pensar'' como los seres humanos, de comunicarse comportarse con nosotros eninteligencia igual o superior a la nuestra propia lengua, y de traducir perfectamente textos escritos con lo que entraríamos en inglés yuna nueva vía en japonés. Asustados por el proyecto, otros países lanzaron sus propiosprogramas la evolución de investigación, aunque buscaron objetivos algo menos ambiciososnuestra sociedad. Aprincipios El viejo sueño de los noventa, el proyecto japonés construir hombres artificiales se dio por finalizado con unrotundo fracasohabría hecho realidad.
Aunque con altibajos,Pero las cosas no siempre con resultados satisfactorios, los avances continuaron llegando enun goteo continuosucedieron como aquellos optimistas preveían. En 1997Es cierto que ese mismo año Arthur Samuel, 30 años después de lo previstoIBM, se cumplió por finconstruyó un programa para jugar a las damas que guardaba información sobre el objetivo desarrollo de las partidas que una máquina programada jugaba y la utilizaba para jugar al ajedrez venciera alcampeón del mundomodificar sus jugadas futuras (es decir, aprendía). En el 2016pocos años, otra máquina venció al campeón mundial tras un número suficiente de Gopartidas,uno el programa fue capaz de vencer a su creador y desempeñaba un papel razonable en los juegos más complejos que existencampeonatos oficiales. También ha avanzado mucho laconducción automática Pero el juego de vehículos (coches y aviones)las damas es incomparablemente menos complicado que el ajedrez, y pronto se anuncia vio que losprimeros coches sin conductor podrían estar en el mercado para el año 2020este iba a ser un hueso bastante más duro de roer.
'''2En los últimos años de la década de 1950, Alex Bernstein, de IBM, construyó un programa capaz de jugar al ajedrez como un principiante, que fue aireado por la prensa como el primer paso hacia el dominio del ajedrez por las computadoras.2Pero el objetivo, ganar al campeón del mundo, o al menos desempeñar un buen papel en los torneos con jugadores humanos, se retrasaría más de 30 años respecto a la fecha prevista.Aplicaciones En cuanto a la traducción de textos entre dos lenguas naturales, también resultó mucho más difícil de la inteligencia artificial débil'''lo que se preveía, como se verá en el apartado siguiente.
Existen muchasaplicaciones, completamente diferentes unas El fracaso de las predicciones de los expertos provocó el desánimo de otras, que suelen clasificarsecomo ''los investigadores en inteligencia artificial''. Enalgunas, muchos de los resultados han sido espectaculares y cuales se aproximan dedicaron a lo otras cosas. El problema se complicó en 1969, cuando Marvin Minski y Seymour Papert (Minski 1969) demostraron matemáticamente queentendemos intuitivamente por las redes neuronales artificiales de una máquina o dos capas (perceptrones sin capa oculta), con las que piensase venía investigando desde los años cincuenta, aunque cuando no pueden realizar una función Booleana tan sencilla como “o exclusivo” (la suma módulo 2). Esto sí se analizana fondo se ve que la supuesta inteligencia no era talpodía conseguir con una red sencilla de tres capas, que se trata pero los ordenadores deaplicaciones programadas entonces no muy diferentes de las que se utilizan en otroscampos eran bastante rápidos ni tenían bastante memoria para trabajar con redes complejas de la informáticatres capas.
Son muchos Durante los temas años setenta, el interés por la inteligencia artificial se renovó gracias a la aparición de los sistemas expertos. De nuevo se lanzaron las campanas al vuelo y se predijeron avances inmediatos demasiado ambiciosos. Arrastrado por esta tendencia, el gobierno del Japón puso enmarcha a finales de los que ha sido posible aplicar técnicas setenta el ''proyecto de inteligencia artificialla quinta generación'', cuyo objetivo era ponerse en cabeza de la investigación informática mundial, desarrollando en diez años (siempre en diez años) máquinas capaces de ''pensar'' como los seres humanos, de comunicarse con nosotros en nuestra propia lengua, hasta y de traducir perfectamente textos escritos en inglés y en japonés. Asustados por elpunto proyecto, otros países lanzaron sus propios programas de investigación, aunque buscaron objetivos algo menos ambiciosos. A principios de que este campo los noventa, el proyecto japonés se parece a dio por finalizado con un pequeño cajón de sastrerotundo fracaso. Veamos algunos:
<!--[if !supportLists]-->·                   <!--[endif]-->Algoritmos inteligentesAunque con altibajos, no siempre con resultados satisfactorios, los avances continuaron llegando en un goteo continuo. En 1997, 30 años después de lo previsto, se cumplió por fin el objetivo de que una máquina programada para jugar al ajedrez venciera al campeón del mundo. En el 2016, otra máquina venció al campeón mundial de Go, uno de los juegosmás complejos que existen. También ha avanzado mucho la conducción automática de vehículos (coches y aviones), y se anuncia que los primeros coches sin conductor podrían estar en el mercado para el año 2020.
<!--[if !supportLists]-->·                   
<!--[endif]-->Realización de razonamientos
lógicos
<!--[if !supportLists]-->·                   <!--[endif]-->Reconocimientoautomático ===Aplicaciones de la palabra habladainteligencia artificial débil===
<!--[if !supportLists]-->·                   <!--[endif]-->Proceso Existen muchas aplicaciones, completamente diferentes unas de textosescritosotras, que suelen clasificarse como ''inteligencia artificial''. En algunas, los resultados han sido espectaculares y se aproximan a lo que entendemos intuitivamente por una máquina que piensa, aunque cuando se analizan a fondo se ve que la supuesta inteligencia no era tal, que se trata de aplicaciones programadas no muy diferentes de las que se utilizan en otros campos de la informática.
<!--[if !supportLists]-->·                   <!--[endif]-->Reconocimiento Son muchos los temas en los que ha sido posible aplicar técnicas deimágenesinteligencia artificial, y vehículos automáticoshasta el punto de que este campo se parece a un pequeño cajón de sastre. Veamos algunos:
<!--[if !supportLists]-->·                   <!--[endif]-->Sistemas expertos* Algoritmos inteligentes para juegos
<!--[if !supportLists]-->·                   <!--[endif]-->Redes neuronalesartificiales* Realización de razonamientos lógicos
<!--[if !supportLists]-->·                   <!--[endif]-->Computación cognitiva ybases * Reconocimiento automático de conocimiento sobre el mundola palabra hablada
=== 2.2.1. Algoritmos inteligentes para juegos ===En 1997, 30 añosdespués * Proceso de lo previsto, una máquina dedicada de IBM (Deep Blue) consiguió porfin vencer al campeón del mundo de ajedrez (Garry Kasparov) en un torneo a seispartidas (Campbell 2002). Sólo un año antes, la victoria de Kasparov contra elmismo programa había sido clara. En años sucesivos, los programas para jugar alajedrez se han impuesto en torneos mixtos, como los dos ''Campeonatos Mundiales del Hombre contra la Máquina'' celebrados enBilbao en 2004 y 2005 (Chess News 2004, 2005). En este caso, los tres programasse ejecutaron sobre máquinas comerciales y ganaron a los tres jugadores humanosde alta calificación por 8,5 a 3,5 en 2004, y por 8 a 4 en 2005. textos escritos
Además del ajedrez, tambiénse ha resuelto favorablemente la programación * Reconocimiento de otros juegos, como elbackgammon o chaquete (Tesauro 1989), las damas (Schaeffer 2007), Jeopardy! (Ferrucci2010), ciertas formas del póker (Bowling 2015) imágenes y el Go (BBC News Online 2016).vehículos automáticos
Sin embargo, los mismosautores de estos programas reconocen que, aunque sean capaces de ganar torneos,sus programas no son especialmente inteligentes. Ganan porque son más rápidosque los seres humanos y analizan un número inmenso de posibilidades, pero noutilizan la intuición como los campeones humanos, que saben dirigir susesfuerzos hacia las líneas de ataque prometedoras, eludiendo las que no lo son.En este contexto, se ha llegado a decir que ''DeepBlue'' es capaz de ganar al ajedrez sin comprender el ajedrez (Hawkins 2004, 18).* Sistemas expertos
'''2.2.2.Realización de razonamientos lógicos'''* Redes neuronales artificiales
Existen tres formasprincipales * Computación cognitiva y bases de razonamiento humano:conocimiento sobre el mundo
<!--[if !supportLists]-->·               
<!--[endif]-->'''     Deducción''':
es el método que más se aplica en las matemáticas. Proporciona una fiabilidad
absoluta, pues si las premisas son correctas, la conclusión también tiene que
serlo.
<!--[if !supportLists]-->·               <!--[endif]-->'''     Inducción''':es el método que más se aplica en las ciencias de la naturaleza (la física, laquímica y algunas ramas de la biología). No proporciona fiabilidad absoluta,pero a medida que los resultados se confirman con experimentos independientes,su fiabilidad aumenta de forma considerable. Sin embargo, siempre queda unmargen de inseguridad, pues queda abierta la posibilidad de que el próximoexperimento que se realice contradiga la conclusión, por lo que se suele decirque en estas ciencias los descubrimientos son siempre provisionales (Popper1962). ====Algoritmos inteligentes para juegos====
<!--[if !supportLists]-->·               <!--[endif]-->En 1997, 30 años después de lo previsto, una máquina dedicada de IBM (Deep Blue) consiguió por fin vencer al campeón del mundo de ajedrez (Garry Kasparov) en un torneo a seis partidas (Campbell 2002). Sólo un año antes, la victoria de Kasparov contra el mismo programa había sido clara. En años sucesivos, los programas para jugar al ajedrez se han impuesto en torneos mixtos, como los dos ''Campeonatos Mundiales del Hombre contra la Máquina'     Abducción''':es el método que más se emplea celebrados en Bilbao en las ciencias humanas2004 y 2005 (Chess News 2004, 2005). En este caso, la historia los tres programas se ejecutaron sobre máquinas comerciales y algunasramas ganaron a los tres jugadores humanos de la biologíaalta calificación por 8, como la paleontología. Es el que proporciona menos fiabilidad5 a 3,pues consiste 5 en inferir la hipótesis más sencilla que explique lasobservaciones. Para ello se establecen paralelos entre objetos, comportamientoso afirmaciones diferentes2004, y se busca documentación que los confirme, aunquepor acumulación de indicios su fiabilidad puede llegar 8 a ser grande (Alfonseca2015)4 en 2005.
Durante los años 60 y70Además del ajedrez, el problema de programar ordenadores para que realicen deducciones lógicastambién se resolvió satisfactoriamente. Como consecuencia ha resuelto favorablemente la programación de estos estudiosotros juegos, se llegó ala conclusión de que el funcionamiento deductivo de la mente humana no es tancomplicado como a primera vista parece, lo que tampoco fue una gran novedad,pues ya Aristóteles, en el siglo III antes de Cristobackgammon o chaquete (Tesauro 1989), había reducido losprocesos de deducción a diecinueve formas elementales o silogismos. Primero seconstruyeron programas capaces de demostrar teoremas las damas (Loveland 1978Schaeffer 2007). Pocodespués, un programa que sólo tenía 165 instrucciones Jeopardy! (Alfonseca 1975Ferrucci 2010) pudo resolvercorrectamente los diecinueve silogismos clásicos. Para ello, ciertas formas del póker (Bowling 2015) y en síntesis, elprograma convertía las proposiciones lógicas en relaciones de teoría deconjuntos y aplicaba reglas de reducción propias de este campo de lasmatemáticasGo (BBC News Online 2016).
En cambioSin embargo, los mismos autores de estos programas reconocen que, aunque sean capaces de ganar torneos, es mucho sus programas no son especialmente inteligentes. Ganan porque son másdifícil programar rápidos que los seres humanos y analizan un número inmenso de posibilidades, pero no utilizan la intuición como los campeones humanos, que saben dirigir sus esfuerzos hacia las computadoras para que realicen procesos líneas de razonamientoinductivo o abductivoataque prometedoras, por eludiendo las que no lo son. En este contexto, se ha llegado a decir que estos campos ''Deep Blue'' es capaz de la investigación eninteligencia artificial continúan abiertosganar al ajedrez sin comprender el ajedrez (Hawkins 2004, 18).
'''2.2.3.
Reconocimiento automático de la palabra hablada'''
En este campo se haavanzado bastante desde los años setenta (Faundez 2000, Jurafsky 2008). Setrata ====Realización de conseguir que los ordenadores entiendan la voz humana, para que sea posibledarles órdenes de forma más natural, sin tener que utilizar una máquina deescribir eléctrica o un teletipo.razonamientos lógicos====
La investigación eneste campo encontró dificultades en el hecho de que cada persona tiene supropia forma de pronunciar, ligeramente diferente de la de los demás, y en queel lenguaje hablado es más ambiguo que el escrito, pues a la existencia depalabras homófonas se suma el problema Existen tres formas principales de que las palabras se funden unas conotras y se concatenan, resultando a veces difícil separarlas. Por esta razón,las primeras aplicaciones de proceso de voz ponían restricciones a las frasesque son capaces de entender. Esas restricciones pertenecían a los tres grupossiguientesrazonamiento humano:
<!--[if !supportLists]-->·                   <!--[endif]-->            Tamaño del diccionario* '''Deducción''': número de palabras es el método que elprograma es capaz de comprendermás se aplica en las matemáticas. Proporciona una fiabilidad absoluta, pues si las premisas son correctas, la conclusión también tiene que serlo.
<!--[if !supportLists]-->·                   <!--[endif]-->Separación * '''Inducción''': es el método que más se aplica en las ciencias de la naturaleza (la física, la química y algunas ramas de laspalabras: algunos programas exigen la biología). No proporciona fiabilidad absoluta, pero a medida que los resultados se confirman con experimentos independientes, su fiabilidad aumenta de forma considerable. Sin embargo, siempre queda un margen de inseguridad, pues queda abierta la posibilidad de que el próximo experimento que se realice contradiga la persona conclusión, por lo que se suele decir que habla pronuncie lasfrases separando claramente las palabras entre síen estas ciencias los descubrimientos son siempre provisionales (Popper 1962).
<!--[if !supportLists]-->·                   <!--[endif]-->Existencia de una fase* '''Abducción''': es el método que más se emplea en las ciencias humanas, la historia y algunas ramas de educación del programa para adaptarse a la voz de una persona concretabiología, como la paleontología. Es el queserá la única a proporciona menos fiabilidad, pues consiste en inferir la hipótesis más sencilla que normalmente podrá entenderexplique las observaciones. Esta educación es un procesolaboriosoPara ello se establecen paralelos entre objetos, comportamientos o afirmaciones diferentes, pues a menudo exige y se busca documentación que la persona que va los confirme, aunque por acumulación de indicios su fiabilidad puede llegar a utilizar el programatenga que pronunciar al menos una vez todas las palabras del diccionarioser grande (Alfonseca 2015).
Las mejoresaplicaciones sólo exigían una o dos Durante los años 60 y 70, el problema de las restricciones anterioresprogramar ordenadores para que realicen deducciones lógicas se resolvió satisfactoriamente. O bien seutilizan diccionarios Como consecuencia de 2000 palabrasestos estudios, o se exige llegó a la separación conclusión de que el funcionamiento deductivo de palabrasla mente humana no es tan complicado como a primera vista parece, lo que tampoco fue una gran novedad, pues ya Aristóteles, ampliandoen el diccionario hasta 20siglo III antes de Cristo, había reducido los procesos de deducción a diecinueve formas elementales o silogismos. Primero se construyeron programas capaces de demostrar teoremas (Loveland 1978).000 términosPoco después, un programa que sólo tenía 165 instrucciones (Alfonseca 1975) pudo resolver correctamente los diecinueve silogismos clásicos. A menudo se alcanzaban grados Para ello, y en síntesis, el programa convertía las proposiciones lógicas en relaciones de teoría de conjuntos y aplicaba reglas de reducción propias de comprensiónsuperiores al 90 por 100 este campo de las palabras pronunciadasmatemáticas.
Actualmente se utilizanaplicaciones En cambio, es mucho más robustas, sin difícil programar las restricciones indicadas (Dong Yu 2015). Lasempresas computadoras para que se especializan en proceso de voz (Google, Microsoft, Nuance)aprovechan la enorme cantidad realicen procesos de datos existentes para entrenar susaplicaciones con muchas personas diferentes. Googlerazonamiento inductivo o abductivo, por ejemplo, utiliza paraello el gran número lo que estos campos de peticiones por voz que su buscador recibe cada díala investigación en inteligencia artificial continúan abiertos.
'''2.2.4.
Proceso de textos escritos'''
La investigación enproceso ====Reconocimiento automático de textos se subdivide en dos áreas principales: proceso del lenguajenatural (Powers 1989, Manning 1999, Jurafsky 2008) y traducción automática(Hutchins 1992).la palabra hablada====
Nuestras lenguasadolecen En este campo se ha avanzado bastante desde los años setenta (Faundez 2000, Jurafsky 2008). Se trata de ambigüedadconseguir que los ordenadores entiendan la voz humana, tanto pragmática (cuando las dos personas para que hablan nocomparten el mismo contexto)sea posible darles órdenes de forma más natural, semántica (una misma palabra puede sin tener variossignificados, que suelen ser distintos en lenguas diferentes) como sintáctica(en utilizar una frase, la misma palabra puede desempeñar diversos papeles sintácticos)máquina de escribir eléctrica o un teletipo.
Se ha hablado mucho La investigación en este campo encontró dificultades en el hecho deque cada persona tiene su propia forma de pronunciar, ligeramente diferente de la de los ordenadores del porvenir podrían programarse demás, y en que el lenguaje natural(castellano, inglés...) Actualmente esto hablado es una utopíamás ambiguo que el escrito, aunque es posible daral usuario pues a la impresión existencia de palabras homófonas se suma el problema de que las palabras se está comunicando en su lengua funden unas con elprograma. Esto otras y se consigueconcatenan, generalmenteresultando a veces difícil separarlas. Por esta razón, las primeras aplicaciones de proceso de voz ponían restricciones a las frases que son capaces de entender. Esas restricciones pertenecían a los tres maneras diferentesgrupos siguientes:
<!--[if !supportLists]-->·                   <!--[endif]-->Provocando la respuesta* Tamaño del usuario con preguntas prefabricadas y tratando diccionario: número de localizar palabrasseleccionadas en dicha respuesta, sin hacer mucho caso que el programa es capaz de la sintaxiscomprender.
<!--[if !supportLists]-->·                   <!--[endif]-->Restringiendo elsubconjunto del lenguaje natural * Separación de las palabras: algunos programas exigen que se puede utilizar, para eliminarambigüedadesla persona que habla pronuncie las frases separando claramente las palabras entre sí.
<!--[if !supportLists]-->·                   <!--[endif]-->Restringiendo el tema * Existencia de una fase de educación del programa para adaptarse a la voz deuna persona concreta, que será la conversaciónúnica a la que normalmente podrá entender. Esta educación es un proceso laborioso, pues a menudo exige que la persona que va a utilizar el programa tenga que pronunciar al menos una vez todas las palabras del diccionario.
Un campo relativamentereciente es la ''minería de datos'', cuyoobjetivo es extraer información de textos escritos y tratar Las mejores aplicaciones sólo exigían una o dos de comprender susignificado (Manning 2008)las restricciones anteriores. Para ello O bien se utilizan métodos estadísticos y diccionarios de 2000 palabras, o seconstruyen corpus anotados que proporcionan información sobre los distintostérminosexige la separación de palabras, estableciendo relaciones entre unos ampliando el diccionario hasta 20.000 términos y otros. Utilizandoestos ''corpora'' los programas mejoran oaceleran la A menudo se alcanzaban grados de comprensión superiores al 90 por 100 de los textos que deben interpretarlas palabras pronunciadas.
Para averiguar a qué serefiere un texto mediante análisis automático Actualmente se utilizan técnicas de ''resolución de entidades'', también llamada''desambiguación de entidades''aplicaciones más robustas, con sin lasrestricciones indicadas (Dong Yu 2015). Las empresas que se alcanza actualmente entre un 80 y un 90% especializan en proceso de identificaciones correctas.'' ''Un problema relacionado con este es voz (Google, Microsoft, Nuance) aprovechan la ''correferencia'', que trata enorme cantidad de deducirdatos existentes para entrenar sus aplicaciones con muchas personas diferentes. Google, enuna frase pronominalpor ejemplo, a qué sustantivo se refiere un pronombreutiliza para ello el gran número de peticiones por voz que su buscador recibe cada día.
En el campo de la
traducción automática, los problemas se multiplican, pues en este caso los
programas no tienen que enfrentarse con una sola lengua natural, sino con dos, ambas
plagadas de ambigüedades e irregularidades, que además no coinciden casi nunca
entre sí. Hacia finales de los años ochenta se propuso traducir primero las
frases de la lengua de partida a un sistema de representación interna
intermedio (Interlingua), que podría considerarse como una lengua artificial
desprovista de ambigüedades. Después, otra parte del programa traductor
trasladaría la traducción a Interlingua a una lengua diferente, utilizando las
reglas y peculiaridades de ésta. Así se aislarían las dos lenguas,
simplificando la traducción. Pero esta solución no ha llegado a implementarse.
Actualmente Google está trabajando en la utilización de redes neuronales (véase
la sección 2.2.7) para realizar traducciones directas entre dos lenguas
naturales diferentes (Sutskever 2014), sin pasar por una Interlingua. A menos
que se diga que el estado interno de la red neuronal es la Interlingua, aunque
se trataría de una lengua ''sui generis'',
pues no tendría gramática reconocible.
Otra posibilidad, quese adoptó en el proyecto ====Proceso de traducción automática EUROTRA, patrocinado por la UniónEuropea, y después en ''Google Translate'',no tiene como objetivo realizar una traducción perfecta de los textos departida, sino obtener una primera aproximación sobre la que un traductor humanopuede trabajar para mejorarla, lo que le permite aumentar considerablemente surendimiento (''traducción asistida porcomputadora'').escritos====
'''2.2.5.Reconocimiento La investigación en proceso de imágenestextos se subdivide en dos áreas principales: proceso del lenguaje natural (Powers 1989, Manning 1999, Jurafsky 2008) y vehículos automáticos'''traducción automática (Hutchins 1992).
El reconocimiento Nuestras lenguas adolecen deimágenes es otro de los campos en los ambigüedad, tanto pragmática (cuando las dos personas que se aplican técnicas de inteligenciaartificial. Cuando observamos hablan no comparten el mismo contexto), semántica (una escena a través de la vistamisma palabra puede tener varios significados, somos capaces deinterpretar la información que recibimos y separar suelen ser distintos en lenguas diferentes) como sintáctica (en una frase, la imagen en objetosindependientes bien identificados. Este campo de investigación intentaprogramar máquinas y robots para que reconozcan visualmente los elementos conlos que han de relacionarsemisma palabra puede desempeñar diversos papeles sintácticos).
Una Se ha hablado mucho de las aplicacionesmás espectaculares de la visión de máquinas es el coche sin conductor. Esteproyecto, bastante avanzado que los ordenadores del porvenir podrían programarse en la actualidad por parte de varias empresaslenguaje natural (castellano,especialmente Google (Fisher 2013inglés...), tiene por objeto construir vehículoscapaces de prescindir del conductor en el tráfico de las carreteras y lascalles de . Actualmente esto es una ciudad. Estas investigacionesutopía, que comenzaron en aunque es posible dar al usuario la UniversidadCarnegie Mellon durante los años ochenta (Jochem 1995), recibieron un fuerteimpulso durante los noventa, cuando en 1995 un coche sin conductor diseñado porErnst Dieter Dickmanns recorrió 1758 km por las autopistas alemanas llevando unconductor humano para casos impresión de emergencia, que tuvo que tomar se está comunicando en su lengua con el control un 5%del tiempo (Dickmanns 2007)programa. En lo que llevamos del siglo XXIEsto se consigue, la investigaciónen el campo del coche sin conductor ha seguido avanzandogeneralmente, y no parece lejano elmomento en que se autorice su comercialización.de tres maneras diferentes:
Algunas otrasaplicaciones avanzadas * Provocando la respuesta del usuario con preguntas prefabricadas y tratando de proceso localizar palabras seleccionadas en dicha respuesta, sin hacer mucho caso de imágenes:la sintaxis.
<!--[if !supportLists]-->·                   <!--[endif]-->''GooglePhotos'', una aplicación * Restringiendo el subconjunto del lenguaje natural que permite hacerbúsquedas en Internet basándose en imágenesse puede utilizar, en lugar de textospara eliminar ambigüedades.
<!--[if !supportLists]-->·                   <!--[endif]-->OCR (''Optical Character Recognition''),extracción * Restringiendo el tema de textos a partir de fotografías. Combinado con ''Google Translate'' (véase la sección2.2.4), permite además traducirlos a otros idiomasconversación.
<!--[if !supportLists]-->·                   <!--[endif]-->Un campo relativamente reciente es la ''Realidadaumentadaminería de datos'', campo que aún no ha alcanzadotodos sus objetivos, que intenta suplementar las percepciones cuyo objetivo es extraer información de textos escritos y tratar de los sentidoshumanos con información generada por un ordenador comprender su significado (imágenes, sonidos, o datosGPSManning 2008). Esto Para ello se conseguiría mediante cascosutilizan métodos estadísticos y se construyen corpus anotados que proporcionan información sobre los distintos términos, lentes estableciendo relaciones entre unos términos y otros. Utilizando estos ''corpora'' los programas mejoran o aceleran la comprensión de contacto o dispositivosparecidos a gafaslos textos que deben interpretar.
Para averiguar a qué se refiere un texto mediante análisis automático se utilizan técnicas de ''resolución de entidades'2', también llamada ''desambiguación de entidades'', con las que se alcanza actualmente entre un 80 y un 90% de identificaciones correctas.2.6.Sistemas expertos''''Un problema relacionado con este es la ''correferencia'', que trata de deducir, en una frase pronominal, a qué sustantivo se refiere un pronombre.
Una vez En el campo de la traducción automática, los problemas se multiplican, pues en este caso los programas no tienen que se comprobóenfrentarse con una sola lengua natural, sino con dos, ambas plagadas de ambigüedades e irregularidades, que además no era tan difícil conseguir que coinciden casi nunca entre sí. Hacia finales de los programas realizaran deduccioneslógicasaños ochenta se propuso traducir primero las frases de la lengua de partida a un sistema de representación interna intermedio (Interlingua), el camino estaba abierto hacia que podría considerarse como una aplicación práctica lengua artificial desprovista de ambigüedades. Después, otra parte del programa traductor trasladaría la inteligenciaartificial: los sistemas expertos (Nilsson 1998traducción a Interlingua a una lengua diferente, caputilizando las reglas y peculiaridades de ésta. 17.4)Así se aislarían las dos lenguas, simplificando la traducción. El primer intentoen Pero esta dirección lo realizaron hacia 1965 Edward Asolución no ha llegado a implementarse. Feigenbaum y JoshuaLederberg Actualmente Google está trabajando en la Universidad norteamericana utilización de Stanford redes neuronales (Feigenbaum 1983véase la sección 2.2.7). Setrataba de construir un programa capaz de para realizar deducciones inteligentes apartir de datos de análisis químico traducciones directas entre dos lenguas naturales diferentes (espectrogramas de masasSutskever 2014) para obtener lafórmula desarrollada de compuestos orgánicos desconocidos, sin pasar por una Interlingua. Después A menos que se diga que el estado interno de varios añosde trabajo, los investigadores terminaron con éxito el proyecto. Su programa, llamadoDENDRALla red neuronal es la Interlingua, aunque se utilizó durante décadas en universidades y laboratorios trataría de análisisde todo el mundouna lengua ''sui generis'', pues no tendría gramática reconocible.
Durante los añossetenta y ochentaOtra posibilidad, la investigación en sistemas expertos que se aplicó adoptó en camposmuy variados: diagnóstico médicoel proyecto de traducción automática EUROTRA, matemáticaspatrocinado por la Unión Europea, físicay después en ''Google Translate'', prospecciones minerasno tiene como objetivo realizar una traducción perfecta de los textos de partida, genética,fabricación automáticasino obtener una primera aproximación sobre la que un traductor humano puede trabajar para mejorarla, configuración automática de computadoras..lo que le permite aumentar considerablemente su rendimiento (''traducción asistida por computadora'').
 ====Reconocimiento de imágenes, y vehículos automáticos==== El reconocimiento de imágenes es otro de los campos en los que se aplican técnicas de inteligencia artificial. Cuando observamos una escena a través de la vista, somos capaces de interpretar la información que recibimos y separar la imagen en objetos independientes bien identificados. Este campo de investigación intenta programar máquinas y robots para que reconozcan visualmente los elementos con los que han de relacionarse. Una de las aplicaciones más espectaculares de la visión de máquinas es el coche sin conductor. Este proyecto, bastante avanzado en la actualidad por parte de varias empresas, especialmente Google (Fisher 2013), tiene por objeto construir vehículos capaces de prescindir del conductor en el tráfico de las carreteras y las calles de una ciudad. Estas investigaciones, que comenzaron en la Universidad Carnegie Mellon durante los años ochenta (Jochem 1995), recibieron un fuerte impulso durante los noventa, cuando en 1995 un coche sin conductor diseñado por Ernst Dieter Dickmanns recorrió 1758 km por las autopistas alemanas llevando un conductor humano para casos de emergencia, que tuvo que tomar el control un 5% del tiempo (Dickmanns 2007). En lo que llevamos del siglo XXI, la investigación en el campo del coche sin conductor ha seguido avanzando, y no parece lejano el momento en que se autorice su comercialización. Algunas otras aplicaciones avanzadas de proceso de imágenes: * ''Google Photos'', una aplicación que permite hacer búsquedas en Internet basándose en imágenes, en lugar de textos.  * OCR (''Optical Character Recognition''), extracción de textos a partir de fotografías. Combinado con ''Google Translate'' (véase la sección 2.2.4), permite además traducirlos a otros idiomas. * ''Realidad aumentada'', campo que aún no ha alcanzado todos sus objetivos, que intenta suplementar las percepciones de los sentidos humanos con información generada por un ordenador (imágenes, sonidos, o datos GPS). Esto se conseguiría mediante cascos, lentes de contacto o dispositivos parecidos a gafas.  ====Sistemas expertos==== Una vez que se comprobó que no era tan difícil conseguir que los programas realizaran deducciones lógicas, el camino estaba abierto hacia una aplicación práctica de la inteligencia artificial: los sistemas expertos (Nilsson 1998, cap. 17.4). El primer intento en esta dirección lo realizaron hacia 1965 Edward A. Feigenbaum y Joshua Lederberg en la Universidad norteamericana de Stanford (Feigenbaum 1983). Se trataba de construir un programa capaz de realizar deducciones inteligentes a partir de datos de análisis químico (espectrogramas de masas) para obtener la fórmula desarrollada de compuestos orgánicos desconocidos. Después de varios años de trabajo, los investigadores terminaron con éxito el proyecto. Su programa, llamado DENDRAL, se utilizó durante décadas en universidades y laboratorios de análisis de todo el mundo. Durante los años setenta y ochenta, la investigación en sistemas expertos se aplicó en campos muy variados: diagnóstico médico, matemáticas, física, prospecciones mineras, genética, fabricación automática, configuración automática de computadoras...  ¿Qué es un sistemaexperto y en qué se diferencia de los programas ordinarios? Mientras en estos elconocimiento se organiza en dos niveles, las instrucciones y los datos, en los
sistemas expertos hay tres componentes:
<!--[if !supportLists]-->·                   <!--[endif]-->* Un sistema deinferencia capaz de hacer deducciones lógicas sobre los datos de que dispone. * Un conjunto de reglas, utilizadas por el sistema de inferencia para realizar deducciones o acciones determinadas. * Los datos sobre el problema concreto que se quiere resolver. Uno de los primeros sistemas expertos fue MYCIN, que diagnosticaba enfermedades infecciosas del aparato circulatorio y recomendaba un tratamiento. Los datos del problema eran los síntomas del paciente, los resultados de sus análisis, y otras cuestiones clínicas que tuviesen que ver con su caso concreto. Las reglas de deducción que se utilizaban para realizar el diagnóstico y proponer el tratamiento se le proporcionaron a MYCIN durante su construcción, no las aprendía, siempre utilizaba las mismas reglas en todos los problemas que tenía que resolver. Por último, el sistema de inferencia era un programa capaz de aplicar las reglas a los datos para obtener conclusiones razonables. El conjunto de reglas de deducción de un sistema experto se llama su ''base de conocimientos''. Para representarlas suelen utilizarse ''reglas de producción'': expresiones de la forma '''SI condición ENTONCES acción'''. La especificación de las reglas evitando toda ambigüedad es el problema más importante con el que se enfrenta quien desee construir un sistema experto. El sistema de inferencia realiza búsquedas en el espacio de conocimientos y de datos. A menudo es imposible probar todas las posibilidades, pues su número es excesivo, por explosión combinatoria. Por eso existen diversos tipos de búsqueda: en ''anchura'', en  ''profundidad'', o ''heurística''. La última hace uso de información ''ad-hoc'' para decidir el camino a seguir. La búsqueda puede ser también ''hacia adelante'', partiendo del estado inicial y aplicando las reglas de deducción hasta llegar al objetivo, o ''hacia atrás'', partiendo del estado final y remontándose hasta los conocimientos existentes, aplicando a la inversa la información de la base de conocimientos. En un sistema experto resulta conveniente disponer de la posibilidad de hacer que explique sus deducciones. Cuando el sistema responde a una pregunta sobre un diagnóstico médico, por ejemplo, debe ser capaz de señalar cómo llegó a esa conclusión (qué reglas ha aplicado).  A partir de finales de los años ochenta, coincidiendo con el fracaso de la quinta generación japonesa, los sistemas expertos entraron en decadencia. Aunque no han desaparecido, hoy no desempeñan el papel principal en la investigación en inteligencia artificial.   ====Redes neuronales artificiales==== Esta es una de las aplicaciones más antiguas de la inteligencia artificial (Gurney 1997). También ha sido una de las más sometidas a exageraciones y previsiones insólitas. Son redes inspiradas en los sistemas nerviosos de los animales, formadas por muchas componentes interconectadas capaces de cierta actividad computacional. Las ''neuronas'' que componen estas redes están generalmente bastante simplificadas, en comparación con las que forman parte del sistema nervioso humano y de muchos animales. Se ha dicho que estas redes son capaces de resolver los problemas más difíciles que existen, en principio (los problemas NP-completos del tipo del viajante de comercio y otros equivalentes), que un ordenador normal sólo puede resolver en un tiempo que crece exponencialmente en función de la complicación del problema. Y hasta cierto punto es verdad, siempre que tengamos en cuenta que la solución obtenida no es necesariamente la óptima, sino tan sólo una aproximación, que muchas veces es suficiente para nuestras necesidades. Las primeras redes neuronales fueron definidas por Warren McCullogh y Walter Pitts (McCulloch 1943). En la década siguiente, Frank Rosenblatt ideó el perceptrón (Rosenblatt 1958), una red neuronal de dos capas (capa de entrada y capa de salida), capaz de aprender qué respuesta debe corresponder a una entrada concreta. La investigación en este campo se estancó tras la publicación del artículo de Minski y Papert antes mencionado (Minski 1969), que demostró que un perceptrón de dos capas no es capaz de resolver la función ''o-exclusivo''. Algunos años más tarde, con la introducción de una tercera capa de neuronas en la red neuronal (situada entre las capas de entrada y de salida) y con la invención del algoritmo de propagación hacia atrás, se resolvió el problema de la función ''o-exclusivo'' y la investigación en el campo de las redes neuronales volvió a avanzar.  En la actualidad (Kruse 2013) se está trabajando en varias direcciones: a) La implementación de las redes neuronales mediante dispositivos de hardware que hacen uso de la nanotecnología, en lugar de simularlas en un ordenador. b) Nuevos algoritmos para resolver, mediante redes neuronales, problemas de ''reconocimiento de patrones'' y aprendizaje automático. c) Implementación de redes basadas en neuronas más complejas, inspiradas en las neuronas biológicas.  ====Computación cognitiva y bases de conocimiento sobre el mundo==== Uno de los problemas que han dificultado la investigación en inteligencia artificial ha sido el hecho de que las computadoras apenas poseen conocimientos sobre el mundo que nos rodea, lo que les pone en desventaja evidente respecto a cualquier ser humano, que sí posee esa información, pues la ha adquirido desde su infancia y puede utilizarla para resolver problemas de sentido común que a nosotros nos parecen triviales, pero que son dificilísimos de resolver para las máquinas que no disponen de la información necesaria. Un primer paso en esa dirección podría ser Wolfram|Alpha (Wolfram 2012). Mientras los buscadores de Internet (como Google) reaccionan ante una pregunta proporcionando una serie de direcciones de Internet donde el lector puede (quizá) encontrar la respuesta a su pregunta, Wolfram|Alpha intenta proporcionar directamente la respuesta, extrayéndola de la información disponible en la web y de la que ha ido acumulando en su ''base de conocimientos'' a lo largo del tiempo.
<!--[if !supportLists]-->·                   <!--[endif]-->Un conjunto También en esta línea, IBM ha puesto en marcha un proyecto de computación cognitiva llamado DeepQA (IBM Research 2011), cuyo objetivo es construir una computadora (Watson) que, a partir de datos muy generales y abundantes ('''''big data''''') y utilizando técnicas de inteligencia artificial y aprendizaje automático, sea capaz de reglashacer predicciones e inferencias útiles, utilizadaspor el sistema y de inferencia para realizar deducciones o acciones determinadasresponder a preguntas expresadas en lenguaje natural.
<!--[if !supportLists]-->·                   <!--[endif]-->Los datos sobre Por elproblema concreto que momento, estos sistemas no pueden ser tan generales como los seres humanos, y normalmente se quiere resolverrestringen a uno o unos pocos campos de aplicación concretos.
Uno de los primeros
sistemas expertos fue MYCIN, que diagnosticaba enfermedades infecciosas del
aparato circulatorio y recomendaba un tratamiento. Los datos del problema eran los
síntomas del paciente, los resultados de sus análisis, y otras cuestiones
clínicas que tuviesen que ver con su caso concreto. Las reglas de deducción que
se utilizaban para realizar el diagnóstico y proponer el tratamiento se le
proporcionaron a MYCIN durante su construcción, no las aprendía, siempre
utilizaba las mismas reglas en todos los problemas que tenía que resolver. Por
último, el sistema de inferencia era un programa capaz de aplicar las reglas a
los datos para obtener conclusiones razonables.
El conjunto de reglasde deducción de un sistema experto se llama su ''base de conocimientos''. Para representarlas suelen utilizarse ''reglas de producción'': expresiones de laforma '''SI condición ENTONCES acción'''.La especificación de las reglas evitando toda ambigüedad es el problema másimportante con el que se enfrenta quien desee construir un sistema experto.==Inteligencia artificial fuerte==
El sistema pasado deinferencia realiza búsquedas la inteligencia artificial ha estado sometido a numerosos altibajos, cuya causa quizá deba buscarse en el espacio nombre mismo de conocimientos y de datos. Amenudo es imposible probar todas la disciplina: '''''Inteligencia artificial''''' sugiere con facilidad las posibilidades, pues su número es excesivo,por explosión combinatoria. Por eso existen diversos tipos ideas de búsqueda: en ''anchura'', en  'hombre artificial'''profundidad'',o ''heurística''. La última hace uso deinformación 'el hombre igualado o superado por la máquina'ad-hoc'' para decidir elcamino a seguir. La búsqueda puede ser también ''hacia adelante'', partiendo que pertenecen más bien a la controversia filosófica que a la tecnología informática. Estos términos están cargados de contenido emotivo y despiertan fuertes rechazos o adhesiones casi fanáticas. Desde mediados del estado inicial siglo XX vemos continuamente que los medios de comunicación y aplicando algunos investigadores en informática (no todos, desde luego) lanzan las reglasde deducción hasta llegar campanas al objetivo, o vuelo y anuncian que la ''haciaatrásinteligencia artificial fuerte'', partiendo del estado final la construcción de máquinas programadas tan inteligentes o más que nosotros, está a punto de conseguirse. Sin duda, todo avance nuevo en inteligencia artificial es útil y remontándose hasta los conocimientosexistentesvalioso, aplicando pero se arriesga a la inversa la información de la base de conocimientosverse despreciado, porque el listón está demasiado alto.
En un sistema expertoresulta conveniente disponer de la posibilidad de Para plantearse correctamente el problema, lo primero que habría que hacer es definir lo que explique susdeduccionesse entiende por ''inteligencia humana''. Cuando   Y ahí precisamente nos encontramos con las primeras dificultades. Sabemos que nuestra inteligencia está ligada de algún modo con el sistema responde a una pregunta sobre un diagnósticomédico, por ejemplofuncionamiento de nuestro cerebro, debe ser capaz de señalar pero no sabemos cómo llegó a esa conclusión (quéreglas ha aplicado)funciona nuestro cerebro. En palabras de Jeff Hawkins:
A partir ''Antes de finales tratar delos años ochentaconstruir máquinas inteligentes, coincidiendo con tenemos que comprender primero cómo piensa el fracaso de la quinta generación japonesacerebro,los sistemas expertos entraron y en decadenciaeso no hay nada artificial. Aunque no han desaparecido'' (Hawkins 2004, hoy nodesempeñan el papel principal en la investigación en inteligencia artificial4-5).
En un campo tan sujeto a controversia, no nos puede extrañar que ni siquiera una cuestión tan primordial como la anterior sea aceptada por todos los investigadores. De hecho, hay muchos que opinan que el problema de la ''inteligencia artificial fuerte''2.2no tiene nada que ver con la biología y es puramente tecnológico.7.Redes neuronales artificiales'''Pero, como dice Hawkins:
Esta es una de lasaplicaciones más antiguas ''Durante décadas, los científicos del campo de la inteligencia artificial (Gurney 1997). Tambiénha sido han sostenido que los computadores serán inteligentes cuando alcancen una de las más sometidas a exageraciones y previsiones insólitaspotencia suficiente. Sonredes inspiradas en los sistemas nerviosos de los animalesYo no lo creo, formadas y explicaré por muchascomponentes interconectadas capaces de cierta actividad computacionalqué: los cerebros y las computadoras hacen cosas fundamentalmente diferentes. Las ''neuronas'' que componen estas redes están generalmentebastante simplificadas(Hawkins 2004, en comparación con las que forman parte del sistemanervioso humano y de muchos animales. Se ha dicho que estas redes son capacesde resolver los problemas más difíciles que existen, en principio (losproblemas NP-completos del tipo del viajante de comercio y otros equivalentes5),que un ordenador normal sólo puede resolver en un tiempo que creceexponencialmente en función de la complicación del problema. Y hasta ciertopunto es verdad, siempre que tengamos en cuenta que la solución obtenida no esnecesariamente la óptima, sino tan sólo una aproximación, que muchas veces essuficiente para nuestras necesidades.
Las primeras redesneuronales fueron definidas por Warren McCullogh y Walter Pitts (McCulloch1943). En la década siguiente, Frank Rosenblatt ideó el perceptrón (Rosenblatt1958), una red neuronal de dos capas (capa A pesar de entrada y capa de salida)todo, capazde aprender qué respuesta debe corresponder a una entrada concreta. Lainvestigación en este campo se estancó tras la publicación del artículo deMinski Hawkins es optimista y Papert antes mencionado (Minski 1969), que demostró piensa que un perceptrón dedos capas no es capaz de resolver la función ''o-exclusivo''. Algunos años más tarde, con la introducción de unatercera capa de neuronas en la red neuronal (situada entre las capas de entraday de salida) y con máquinas tan inteligentes como el hombre están a la invención del algoritmo de propagación hacia atrás, seresolvió el problema vuelta de la función ''o-exclusivo''y la investigación en el campo de las redes neuronales volvió a avanzar.esquina:
''¿Podremos construir máquinas inteligentes?... Sí. Podremos y lo haremos. En la actualidad (Kruse2013) se está trabajando las próximas décadas veremos una rápida evolución en varias direcciones: a) La implementación de lasredes neuronales mediante dispositivos capacidades de hardware que hacen uso de la nanotecnología,esas máquinas en lugar de simularlas en un ordenadordirecciones interesantes. b) Nuevos algoritmos para resolver, medianteredes neuronales, problemas de ''reconocimientode patrones'' y aprendizaje automático. c(Hawkins 2004, 7) Implementación de redes basadas enneuronas más complejas, inspiradas en las neuronas biológicas.
'''2.2.8.Computación cognitiva y bases Entre los que hacen predicciones optimistas destaca Ray Kurzweil, que lleva décadas anunciando la inminencia de conocimiento sobre el mundo'''la inteligencia artificial fuerte:
Uno * En su libro ''La era de las máquinas inteligentes'' (Kurzweil 1990) parte de los problemasque han dificultado la investigación en inteligencia artificial ha sido elhecho base de que las computadoras apenas poseen conocimientos sobre el mundo que nosrodea, un programa de ordenador suficientemente avanzado exhibiría automáticamente inteligencia similar a la humana (justo lo que les pone Hawkins niega en desventaja evidente respecto a cualquier ser humano,que sí posee esa información, pues la ha adquirido desde su infancia y puedeutilizarla para resolver problemas segunda cita anterior). Algunas de sentido común que a nosotros nos parecentrivialessus predicciones en este libro ya han sido falsadas, pero que son dificilísimos de resolver como el ''teléfono traductor'' para las máquinas que nodisponen de la información necesariaprimera década del siglo XXI.
Un primer paso en esadirección podría ser Wolfram|Alpha * En el libro ''La era de las máquinas espirituales'' (Wolfram 2012Kurzweil 1999). Mientras predice que las máquinas más inteligentes que los buscadores deInternet (como Google) reaccionan ante una pregunta proporcionando una serie dedirecciones hombres serán el resultado automático de Internet donde el lector puede (quizá) encontrar la respuesta asu pregunta, Wolfram|Alpha intenta proporcionar directamente la respuesta,extrayéndola evolución de la información disponible en la web y los computadores actuales durante un par de la décadas. Sólo faltan cuatro años para que ha idoacumulando en su ''base de conocimientos''a lo largo del tiempoesta predicción quede asimismo falsada.
También en esta línea, IBMha puesto en marcha un proyecto de computación cognitiva llamado DeepQA (IBMResearch 2011)* Seis años después, cuyo objetivo es construir una computadora (Watson) queKurzweil publicó otro libro, apartir de datos muy generales y abundantes ('''''big data'''La singularidad está cerca ''(Kurzweil 2005) y utilizandotécnicas , en el que afirma que la confluencia de los avances de inteligencia artificial diversos campos (informática, robótica, genética y aprendizaje automáticonanotecnología darán lugar para 2045 a una singularidad tecnológica, sea capaz un avance tan enorme que ya no seremos capaces dehacer predicciones e inferencias útilescomprenderlo, y de responder lo que equivale a preguntas expresadasen lenguaje naturaldecir que seremos superados por nuestras máquinas para siempre.
Por * Siete años después, Kurzweil publicó ''Cómo crear una mente: revelado el momentosecreto del pensamiento humano'' (Kurzweil 2012), en el que sostiene que una inteligencia artificial mayor que la humana podría crearse en breve (a fines de la década de 2020), simplemente profundizando algunas técnicas típicas de la inteligencia artificial débil, estossistemas no pueden ser tan generales como los seres humanos, modelos de Markov y normalmente serestringen a uno o unos pocos campos de aplicación concretoslos algoritmos genéticos.
'''3.Inteligencia Kurzweil no sólo parece obsesionado por la inteligencia artificial fuerte''', también lo está por el problema de la inmortalidad humana, que ve también inminente (alguna vez la ha predicho para 2035), porque cree que en el fondo ambos problemas están estrechamente relacionados. Según él, la inmortalidad se alcanzará por la confluencia de tres caminos diferentes:
El pasado # Gracias a los avances de lainteligencia artificial ha estado sometido a numerosos altibajos, cuya causaquizá deba buscarse en el nombre mismo medicina. Cuando los investigadores sean capaces de la disciplina: '''''Inteligencia artificial'''''sugiere con facilidad las ideas aumentar nuestra esperanza de '''''hombre artificial'''''vida un año cada año, o '''''elhombre igualado o superado por la máquina'''''seremos automáticamente inmortales. Desgraciadamente para Kurzweil, que pertenecen más bien a las predicciones de lacontroversia filosófica que ONU para el siglo XXI (United Nations 2015) apuntan a la tecnología informática. Estos términos están cargadosde contenido emotivo y despiertan fuertes rechazos o adhesiones casi fanáticas.Desde mediados una disminución progresiva del siglo XX vemos continuamente que los medios incremento de comunicacióny algunos investigadores en informática (no todos, desde luego) lanzan lascampanas al vuelo y anuncian que la ''inteligenciaartificial fuerte'', la construcción esperanza de máquinas programadas tan inteligenteso más que nosotrosvida, está a punto en lugar de conseguirse. Sin duda, todo avance nuevo eninteligencia artificial es útil y valioso, pero se arriesga a versedespreciado, porque el listón está demasiado altoun aumento.
Para plantearsecorrectamente el problema# Mediante la combinación de los avances de la medicina y la informática, lo primero que habría que hacer a través de la construcción de órganos artificiales. El hombre del futuro se transformaría en ''cyborg'' y sería prácticamente inmortal. Esta es definir lo que seentiende la línea seguida por los ''inteligencia humanatranshumanistas''(Bostrom 2005).  Y ahí precisamente nos encontramos con lasprimeras dificultades. Sabemos que nuestra inteligencia El problema aquí está ligada de algúnmodo con en si será posible sustituir el funcionamiento de nuestro cerebrohumano por un cerebro artificial. Si no lo es, pero no sabemos cómo funcionanuestro la supuesta inmortalidad terminaría en cuanto el cerebrose deteriorase. En palabras de Jeff Hawkins:Y si lo fuese, ¿acaso quien se sometiese a esa sustitución seguiría siendo el mismo ser humano?
''Antes# A través de tratar la inteligencia artificial fuerte. Cuando seamos capaces de construir máquinas inteligentessuperinteligencias, podremos descargar nuestra consciencia en una de ellas, para seguir viviendo indefinidamente. Sin embargo, tenemos es preciso reconocer que comprender primerocómo piensa el cerebroeste objetivo parece demasiado ambicioso, y en eso al menos por ahora. Si no hay nada artificial. ''(Hawkins2004sabemos qué es la consciencia, 4-5).¿cómo vamos a descargarla?
En un campo tan sujetoa controversia, Otros investigadores no nos puede extrañar que ni siquiera una cuestión son tanprimordial optimistas como la anterior sea aceptada por todos los investigadoresHawkins y Kurzweil. DehechoAsí, hay muchos que opinan que el problema Ramón López de la ''inteligencia artificial'' ''fuerte''no tiene nada que ver con la biología y es puramente tecnológico. Pero, comoMántaras dice Hawkins:
''DurantedécadasLa otra vertiente, los científicos del campo la de la inteligencia artificial han sostenidogeneralista, intenta desarrollar inteligencias artificiales que los computadores serán inteligentes cuando alcances una potencia suficientetengan [la] versatilidad y [la] capacidad general de saber de muchas cosas.Yo Esto no lo creosignifica, y explicaré por qué: los cerebros y ahí es donde está el error de algunos de estos planteamientos, que esa inteligencia tenga que ser igual que la humana. De hecho, es imposible, en mi opinión. Por muy sofisticadas que sean algunas inteligencias artificiales en el futuro, dentro de 100.000 o 200.000 años, serán distintas de las computadoras hacen cosasfundamentalmente diferenteshumanas.'' (Hawkins 2004, 5López de Mántaras 2013).
A pesar Como vemos, las discrepancias son impresionantes: mientras unos hablan de todounas pocas décadas,Hawkins es optimista otros lo dejan para dentro de algunos cientos de miles de años. Como veremos en la sección 3.5, además de estas dos posturas (a muy corto y piensa muy largo plazo) existe una tercera: la que afirma, por razones filosóficas, que las el objetivo de construir máquinas tan más inteligentes como que el hombreestán a la vuelta de la esquina:es probablemente imposible.
Puesto que los criterios puramente tecnológicos son anteriores a los filosóficos, vamos a ver primero con detalle el más antiguo de todos, la ''¿Podremosconstruir máquinas inteligentes?... Sí. Podremos y lo haremos. En las próximasdécadas veremos una rápida evolución en las capacidades prueba de esas máquinas en direccionesinteresantes. Turing''(Hawkins 2004, 7).
Entre los que hacen
predicciones optimistas destaca Ray Kurzweil, que lleva décadas anunciando la
inminencia de la inteligencia artificial fuerte:
<!--[if !supportLists]-->·                   <!--[endif]-->En su libro ''===La era prueba de las máquinas inteligentes''(Kurzweil 1990) parte de la base de que un programa de ordenadorsuficientemente avanzado exhibiría automáticamente inteligencia similar a lahumana (justo lo que Hawkins niega en la segunda cita anterior). Algunas de suspredicciones en este libro ya han sido falsadas, como el ''teléfono traductor'' para la primera década del siglo XXI.Turing===
<!--[if !supportLists]-->·                   <!--[endif]-->En 1950, adelantándose a su época, el libro ''La era de matemático y químico inglés Alan Turing intentó definir las máquinas espirituales''(Kurzweil 1999) predice condiciones en que las máquinas más inteligentes sería posible afirmar que los hombres seránel resultado automático una máquina es capaz de pensar como nosotros. Para Turing, esto se conseguirá cuando la evolución máquina sea capaz de engañar a los computadores actuales durante unpar seres humanos, haciéndoles pensar que es uno de décadasellos (Turing 1950). Sólo faltan cuatro años para que esta predicción quede asimismofalsadaEsta prueba se llama ''el juego de la imitación''.
<!--[if !supportLists]-->·                   <!--[endif]-->Seis años despuésPara desarrollar su teoría,Kurzweil publicó otro librolo primero que hizo Turing fue proponer una prueba preliminar. Se trata de que un investigador se comunique con dos personas de distinto sexo y descubra cuál de ellas es el hombre y cuál es la mujer, haciéndoles preguntas y estudiando las respuestas que recibe. Los dos sujetos se encuentran, naturalmente, fuera de su vista, ''Lasingularidad está cerca ''y se comunican con él a través de teletipos o terminales de ordenador. Uno de ellos (Kurzweil 2005el hombre)trata de engañarle, en el que afirma que otro (laconfluencia mujer) trata de los avances ayudarle. ¿Cuántas preguntas tendrá que realizar para descubrir quién es quién? ¿En qué porcentaje de diversos campos (informáticacasos conseguirá engañarle el hombre? Turing estimó que dicho porcentaje no rebasaría mucho el 30%, robótica, genéticay nanotecnología darán lugar para 2045 a una singularidad tecnológicao sea, que en unavance tan enorme 70% de los casos el investigador no se dejaría engañar. Es curioso que ya estas cifras se hayan dado por buenas sin comprobación alguna. Al menos, yo no seremos capaces soy consciente de comprenderlo, lo que equivale este experimento se haya llevado adecir que seremos superados por nuestras máquinas para siemprela práctica.
<!--[if !supportLists]-->·                   <!--[endif]-->Siete años despuésEn la segunda parte de la prueba, Kurzweilpublicó ''Cómo crear se sustituye el hombre por una mente: revelado elsecreto del pensamiento computadora convenientemente programada. El segundo participante puede ser un ser humano'' (Kurzweil 2012), en cualquiera. Se trata de que el que sostiene que unainteligencia artificial mayor que la humana podría crearse en breve (a fines investigador descubra cuál desus dos contertulios es la década de 2020), simplemente profundizando algunas técnicas típicas computadora. ¿Varían las circunstancias respecto al problema anterior? ¿Es capaz el interrogador de descubrir cuál es lainteligencia artificial débilmáquina, como los modelos de Markov haciendo menos preguntas que en el caso del hombre y los algoritmosgenéticos. la mujer?
Kurzweilno sólo parece obsesionado por la inteligencia artificial fuerteSegún Turing,  también lo está se podrá afirmar que una máquina piensa cuando los resultados de las dos pruebas sean idénticos. Si una máquina que intenta hacerse pasar por el problema humana fuese capaz de engañar a los seres humanos con lainmortalidad humana, misma facilidad con que ve también inminente (alguna vez la ha predicho para2035)un ser humano puede engañar a otro, porque cree habría que en el fondo ambos problemas están estrechamenterelacionadosconsiderarla inteligente y equivalente a los seres humanos. Según él, la inmortalidad se alcanzará por la confluencia de trescaminos diferentes:
<!--[if !supportLists]-->1.      <!--[endif]-->GraciasTuring no se limitó a los avances de plantear la medicina. Cuando los investigadores sean capaces deaumentar nuestra esperanza de vida un año cada añoprueba, seremos automáticamenteinmortales. Desgraciadamente para Kurzweil, las sino que hizo predicciones de la ONU para elsiglo XXI (United Nations 2015) apuntan a una disminución progresiva delincremento de la esperanza de vida, en lugar de a un aumento.concretas:
''Yo creo que en unos cincuenta años será posible programar computadoras, con una capacidad de almacenamiento de alrededor de 10<!--[if !supportLists]--sup>2.      9<!--[endif]--/sup>Mediante, para que sean capaces de jugar tan bien al juego de la combinación imitación que un interrogador promedio no tendrá más del 70 por ciento de los avances probabilidad de hacer la medicina y la informática, a través identificación correcta después de laconstrucción cinco minutos de órganos artificialesinterrogatorio. El hombre del futuro se transformaría en ''cyborg'' y sería prácticamente inmortal. Estaes la línea seguida por los ''transhumanistas''(Bostrom 2005Turing 1950). El problema aquí está en si será posible sustituir el cerebrohumano por un cerebro artificial. Si no lo es, la supuesta inmortalidadterminaría en cuanto el cerebro se deteriorase. Y si lo fuese, ¿acaso quien sesometiese a esa sustitución seguiría siendo el mismo ser humano?
<!--[if !supportLists]-->3.      <!--[endif]-->Através Durante muchos años, ningún programa se acercó siquiera a resolver la prueba de la inteligencia artificial fuerteTuring. Cuando seamos capaces de construirsuperinteligenciasCuriosamente, podremos descargar nuestra consciencia en una de ellasel que más se aproximó a ello fue ELIZA (Weizenbaum 1966),para seguir viviendo indefinidamenteque se hacía pasar por un psiquiatra que dialoga con sus supuestos pacientes. Sin embargoPero sólo los ''pacientes'' más inocentes se dejaban engañar por él, es preciso reconocer bastaba con intercambiar media docena de frases para descubrir queeste objetivo parece demasiado ambiciosoestabas hablando con una computadora, al menos por ahorala forma rígida en que contestaba. Si no sabemos quées la consciencia, ¿cómo vamos a descargarla?
Otros investigadores En una prueba realizada en 2014, la predicción de Turing pareció cumplirse con 14 años de retraso, cuando un ''chatbot'' (un programa que toma parte en una conversación de ''chat'') llamado ''Eugene Goostman'' consiguió convencer al 33% de sus contertulios, tras cinco minutos de conversación, de que era un chico ucraniano de 13 años. Sin embargo, algunos analistas noson ven las cosas tan optimistas como Hawkins y Kurzweilclaras. AsíEl hecho de que el programa se hiciese pasar por un adolescente extranjero, Ramón López en lugar de Mántaras diceun compatriota adulto, aumentó el nivel de credulidad de sus contertulios en el ''chat''. Comentando este resultado, Evan Ackerman escribió:
''Laotra vertiente, la prueba de inteligencia artificial generalista, intenta desarrollarinteligencias artificiales Turing no demuestra que tengan [la] versatilidad y [la] capacidadgeneral de saber un programa sea capaz de muchas cosaspensar. Esto no significa, y ahí es donde está elerror de algunos de estos planteamientos, que esa inteligencia tenga que Más bien indica si un programa puede engañar a un serigual que la humanahumano. De hecho, es imposible, en mi opinión. Por muysofisticadas que sean algunas inteligencias artificiales en el futuro, dentrode 100.000 o 200.000 años, serán distintas de las humanasY los seres humanos somos realmente tontos.''(López de Mántaras 2013Ackerman 2014).
Como vemos, lasdiscrepancias son impresionantes: mientras unos hablan Muchos investigadores piensan que la prueba de unas pocas décadas,otros lo dejan Turing no basta para dentro de algunos cientos de miles de años. Como veremos endefinir o detectar la sección 3inteligencia.5Por una parte, además de estas dos posturas (a muy corto y muy largo plazo)existe una tercera: la intenta demostrar que afirmahay inteligencia, sin definirla. Por otra, la prueba se apoya en decisiones tomadas por razones filosóficaspersonas concretas, cuyo juicio puede no ser de confianza, como señala Ackerman. Actualmente, ni filósofos ni informáticos consideran que el objetivo la prueba deconstruir máquinas más inteligentes Turing tenga verdadero valor, por lo que los intentos de llevarla a cabo (como el hombre es probablemente imposiblemencionado) deberían considerarse simplemente anecdóticos.
Puesto que loscriterios puramente tecnológicos son anteriores a los filosóficosAlgunos investigadores (Legg 2007, vamos Hernández-Orallo 2010) han propuesto pruebas alternativas a verprimero con detalle el más antiguo la de todos, Turing para detectar la ''prueba posible inteligencia de Turing''las máquinas, pero por el momento no se ha impuesto ninguna.
'''3.1.
La prueba de Turing'''
En 1950, adelantándosea su época, el matemático y químico inglés Alan Turing intentó definir lascondiciones en que sería posible afirmar que una máquina es capaz de pensar comonosotros. Para Turing, esto se conseguirá cuando la máquina sea capaz deengañar a los seres humanos, haciéndoles pensar que es uno de ellos (Turing1950). Esta prueba se llama ''el juego dela imitación''.===La habitación china===
Para desarrollar suteoríaEn 1980, lo primero que hizo Turing fue proponer el filósofo John Searle propuso una nueva prueba preliminar. Se tratade que un investigador se comunique con dos personas de distinto sexo ydescubra cuál de ellas es el hombre y cuál es , ''la mujer, haciéndoles preguntas yestudiando las respuestas que recibe. Los dos sujetos se encuentran,naturalmente, fuera de su vista, y se comunican con él a través de teletipos oterminales de ordenador. Uno de ellos habitación china ''(el hombre) trata de engañarleSearle 1980, el otro(la mujer1999) trata de ayudarle. ¿Cuántas preguntas tendrá que realizar paradescubrir quién es quién? ¿En Veamos en qué porcentaje de casos conseguirá engañarle elhombre? Turing estimó que dicho porcentaje no rebasaría mucho el 30%, o sea,que en un 70% de los casos el investigador no se dejaría engañar. Es curiosoque estas cifras se hayan dado por buenas sin comprobación alguna. Al menos, yono soy consciente de que este experimento se haya llevado a la práctica.consiste:
En la segunda parte # Supongamos que tenemos un programa de computadora capaz depasar satisfactoriamente la pruebade Turing, que se sustituye el hombre por pone a dialogar con una computadora convenientemente programadapersona china.El segundo participante puede ser un ser humano cualquieraEn la conversación, los dos participantes utilizan caracteres chinos para comunicarse por escrito. Se trata de La computadora, que está encerrada en una habitación para que la persona no la vea, lo hace tan bien que elinvestigador descubra cuál de sus dos contertulios es la computadora. ¿Varían lascircunstancias respecto al problema anterior? ¿Es capaz el interrogador de descubrircuál es engañarla, por lo que la máquina, haciendo menos preguntas persona cree estar dialogando con un ser humano que en el caso del hombre y conoce perfectamente lamujer? lengua china.
Según Turing# Ahora Searle saca de la habitación la computadora y en su lugar se coloca él mismo. Searle reconoce que no sabe chino, pero se podráafirmar lleva un organigrama del programa que una máquina piensa cuando los resultados de las dos pruebas sean idénticosutilizó la computadora para dialogar con la otra persona.Si una máquina que intenta hacerse pasar por humana fuese En principio, utilizando ese programa, Searle sería capaz de engañar alos seres humanos dialogar con ella en su propia lengua tan bien como lo hacía la misma facilidad con computadora. Cada vez que reciba un ser humano puede engañar aotrotexto escrito en chino, habría que considerarla inteligente aplica las reglas y equivalente escribe los signos correspondientes a los seres humanosla respuesta que habría dado la computadora.
Turing # Searle sabe que no sabe chino. Sabe también que no se limitó ha enterado de la conversación que acaba de mantener con la otra persona, aplantear la pruebapesar de que dicha conversación fue capaz de engañarla, sino haciéndola creer que ha estado dialogando con un ser humano que hizo predicciones concretas: sabe chino.
''Yocreo que en unos cincuenta años será posible programar computadoras, con unacapacidad # Como la actuación de almacenamiento la computadora fue idéntica a la de alrededor Searle, es de 10<sup>9</sup>, para suponer que seancapaces de jugar tan bien al juego de la imitación que un interrogador promediono tendrá más del 70 por ciento máquina tampoco entendió la conversación. Ahora Searle plantea la siguiente pregunta: ¿Es consciente de probabilidad de hacer ello la identificacióncorrecta después de cinco minutos de interrogatorio. ''(Turing1950).computadora, como Searle lo es?
Durante muchos añosEs de suponer que la computadora no es consciente de ello,como ningún programa se acercó siquiera a resolver actual lo sería. Luego no basta con que una máquina sea capaz de pasar la prueba de Turing.Curiosamente, el para que más se aproximó a ello fue ELIZA (Weizenbaum 1966)pueda afirmar que piensa, para poder considerarla inteligente. Hacen falta dos cosas más: que sehacía pasar por un psiquiatra comprenda lo que escribe y que dialoga con sus supuestos pacientessea consciente de la situación. Pero sólolos Mientras eso no ocurra, no podremos hablar estrictamente de ''pacientesinteligencia artificial fuerte'' más inocentes sedejaban engañar por él, bastaba con intercambiar media docena de frases paradescubrir que estabas hablando con una computadora, por la forma rígida en quecontestaba.
En todo esto subyace un problema muy importante: para construir una prueba realizadaen 2014inteligencia artificial fuerte, parece necesario dotar a las máquinas de consciencia. Pero si no sabemos qué es la consciencia, ni siquiera la predicción de Turing pareció cumplirse con 14 años de retrasonuestra,cuando un ''chatbot'' (un programa quetoma parte ¿cómo vamos a conseguirlo? En los últimos tiempos se han realizado muchos avances en una conversación de ''chat'')llamado ''Eugene Goostman'' consiguióconvencer al 33% de sus contertulios, tras cinco minutos de conversaciónneurociencia, pero aún estamos muy lejos depoder definir lo que era un chico ucraniano es la consciencia y saber de 13 años. Sin embargodónde surge y cómo funciona, algunos analistas no ven lascosas tan claras. El hecho de así que el programa se hiciese pasar por unadolescente extranjeromucho menos podemos crearla, en lugar de un compatriota adulto, aumentó el nivel decredulidad de sus contertulios en el ''chat''ni siquiera simularla.Comentando este resultado, Evan Ackerman escribió:
''La prueba El argumento de Turing la habitación china no demuestra ha convencido a todo el mundo. Las respuestas que unprograma sea capaz se le han planteado son muy variadas y pueden clasificarse en varios grupos, de pensar. Más bien indica si un programa puede engañar a unser humano. Y los seres humanos somos realmente tontos. ''(Ackerman 2014).que aquí sólo se mencionan tres:
Muchosinvestigadores piensan * Los que la sostienen (Dennett 1991, Russell 2003) que en esta prueba de Turing no basta para definir sí hay alguien (o detectaralgo) que entiende chino: la inteligencia. Por una partehabitación completa, intenta demostrar que hay inteligenciael sistema, sindefinirla. Por otrael conjunto, la prueba se apoya en decisiones tomadas por personasconcretas, cuyo juicio puede aunque el ser humano que forma parte del sistema no ser de confianza, como señala Ackermanlo entienda.ActualmenteSearle replica que su argumento puede simplificarse, ni filósofos ni informáticos consideran que la prueba porque él podría -en principio- aprender de Turingtenga verdadero valormemoria el organigrama del programa, por con lo que los intentos de llevarla el sistema completo se reduciría a cabo (como elmencionado) deberían considerarse simplemente anecdóticosél mismo, que sigue sin entender chino y lo sabe. De este contra-argumento hay varias versiones, más o menos equivalentes.
Algunosinvestigadores * Otros, como Marvin Minski (Legg 2007, Hernández-Orallo 20101980) han propuesto pruebasalternativas a sostienen que la de Turing para detectar la posible inteligencia de lasmáquinasmera presencia del software hace aparecer una ''mente virtual'', diferente del sistema, pero por el momento y esta mente sí entiende chino. Searle responde que dicha mente no se ha impuesto ningunaes tal, sino una simple simulación.
'''3* Algunos (ver Cole 2004) aducen que el programa que permite a la computadora contestar a la persona china tiene que contener una gran cantidad de información sobre el mundo en general, y que es esto lo que da sentido a los símbolos.2Searle contesta que no cree que sea posible introducir esa información contextual en un programa.La habitación china'''
En 1980, el filósofo John Searle propuso una nueva prueba, ''la''
''habitación china ''(Searle 1980, 1999).
Veamos en qué consiste:
# Supongamos que tenemos un programa de computadora capaz de pasar satisfactoriamente la prueba de Turing, que se pone a dialogar con una persona china. En la conversación, los dos participantes utilizan caracteres chinos para comunicarse por escrito. La computadora, que está encerrada en una habitación para que la persona no la vea, lo hace tan bien que es capaz de engañarla, por lo que la persona cree estar dialogando con un ser humano que conoce perfectamente la lengua china.
# Ahora Searle saca de la habitación la computadora y en su lugar se coloca él mismo. Searle reconoce que no sabe chino, pero se lleva un organigrama del programa que utilizó la computadora para dialogar con la otra persona. En principio, utilizando ese programa, Searle sería capaz de dialogar con ella en su propia lengua tan bien como lo hacía la computadora. Cada vez que reciba un texto escrito en chino, aplica las reglas y escribe los signos correspondientes a la respuesta que habría dado la computadora.
# Searle sabe que no sabe chino. Sabe también que no se ha enterado de la conversación que acaba de mantener con la otra persona, a pesar de que dicha conversación fue capaz de engañarla, haciéndola creer que ha estado dialogando con un ser humano que sabe chino.
# Como la actuación de la computadora fue idéntica a la de Searle, es de suponer que la máquina tampoco entendió la conversación. Ahora Searle plantea la siguiente pregunta: ¿Es consciente de ello la computadora, como Searle lo es?
Es de suponer que la
computadora no es consciente de ello, como ningún programa actual lo sería.
Luego no basta con que una máquina sea capaz de pasar la prueba de Turing para
que se pueda afirmar que piensa, para poder considerarla inteligente. Hacen
falta dos cosas más: que comprenda lo que escribe y que sea consciente de la
situación. Mientras eso no ocurra, no podremos hablar estrictamente de ''inteligencia
artificial fuerte''.
En todo estosubyace un ===El problema muy importante: para construir una inteligencia artificialfuerte, parece necesario dotar a las máquinas de consciencia. Pero si nosabemos qué es la consciencia, ni siquiera la nuestra, ¿cómo vamos a conseguirlo?En los últimos tiempos se han realizado muchos avances en neurociencia, peroaún estamos muy lejos de poder definir lo que es la consciencia y saber dedónde surge y cómo funciona, así que mucho menos podemos crearla, ni siquiera simularla.contención===
El argumento de Si lahabitación china no ha convencido a todo el mundo. Las respuestas que se le hanplanteado son muy variadas y pueden clasificarse en varios gruposinteligencia artificial fuerte fuese practicable, de los queaquí sólo se mencionan tresnos plantearía un problema importante:
<!--[if !supportLists]-->·                   <!--[endif]-->Los que sostienen (Dennett1991, Russell 2003) que en esta prueba sí hay alguien (o algo) que entiendechino'''Definición 2: ''' ''El '' '''problema de la habitación completa, el sistema, el conjunto, aunque el ser humanoque forma parte del sistema no lo entienda. Searle replica que su argumentocontención''' ''puede simplificarse, porque él podría -en principio- aprender definirse con esta pregunta: ¿Es posible programar una superinteligencia de memoria el organigrama del programa, con lo tal manera que elsistema completo se reduciría no le esté permitido causar daño a él mismo, que sigue sin entender chino y losabe. De este contra-argumento hay varias versiones, más o menos equivalentes.ningún ser humano?''
<!--[if !supportLists]-->·                   <!--[endif]-->OtrosEn 1942, como MarvinMinski en el contexto de sus cuentos cortos sobre robots, Isaac Asimov formuló las tres leyes de la robótica (1980Asimov 1950) sostienen que la mera presencia del software hace aparecer una ''mente virtual'', diferente del sistema, yesta mente sí entiende chino. Searle responde que dicha mente no es tal, sinouna simple simulación. :
<!--[if !supportLists]-->·                   <!--[endif]-->Algunos (ver Cole2004) aducen que el programa que permite a la computadora contestar a lapersona china tiene que contener una gran cantidad de información sobre elmundo en general# Un robot no debe hacer daño a un ser humano o, por inacción, y que es esto lo que da sentido a los símbolos. Searlecontesta que no cree permitir que sea posible introducir esa información contextual enun programaser humano sufra daño.
'''3# Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.3.El problema de la contención'''
Si # Un robot debe proteger su propia existencia en la inteligenciaartificial fuerte fuese practicable, se nos plantearía un problema importante:medida en que esta protección no entre en conflicto con la primera o la segunda ley.
'''Definición2: '''''El'''''Esencialmente, la primera ley de Asimov es equivalente al problemade la contención''' ''puede definirse'' ''con estapregunta: ¿Es . Pues bien, hay indicios matemáticos de que no es posible programar una superinteligencia resolver el problema de la contención. En particular, en un estudio muy reciente (Alfonseca inédito) se demuestra que el problema de la contención es equivalente al problema de tal manera la parada, que Alan Turing demostró que no leesté permitido causar daño a ningún ser humano?''tiene solución (Turing 1937). Si esto se confirma, tenemos dos posibilidades:
En 1942a) Renunciar a crear superinteligencias, en para evitar el contextode sus cuentos cortos sobre robots, Isaac Asimov formuló las tres leyes de larobótica (Asimov 1950): # Un robot no debe hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.# Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.# Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Esencialmente, laprimera ley de Asimov es equivalente al problema de la contención. Pues bien, hayindicios matemáticos de que no es posible resolver el problema de lacontención. En particular, en un estudio muy reciente (Alfonseca inédito) sedemuestra que el problema de la contención es equivalente al problema de laparada, que Alan Turing demostró mal que no tiene solución (Turing 1937)podrían causarnos. Si esto seconfirma, tenemos dos posibilidades:
<!--[if !supportLists]-->ab)                 <!--[endif]-->Renunciar a crearestar seguros de que las superinteligenciasno podrán causarnos daño. Si fuese posible llegar hasta ese punto en la investigación en inteligencia artificial, para evitar el posible mal y si decidimos hacerlo, habrá que podrían causarnosasumir un riesgo.
<!Norbert Wiener, fundador de la Cibernética (una tecnología interdisciplinar para la exploración y el diseño de sistemas auto--[if !supportLists]-->bregulados)                <!--[endif]-->Renunciar a estarseguros , compara con la magia el comportamiento literal y poco inteligente de que las superinteligencias no podrán causarnos daño. Si fueseposible llegar hasta ese punto en la investigación en inteligencia artificialcomputadoras,y si decidimos hacerlo, habrá que asumir un riesgo.pone el siguiente ejemplo (Wiener 1948-1961):
Norbert Wiener''Más terrible que cualquiera de estos cuentos es la fábula de la pata del mono,fundador escrita por W.W.Jacobs, escritor inglés de principios del siglo [XX]. Un trabajador inglés retirado está sentado a la Cibernética (una tecnología interdisciplinar para mesa con su esposa y un amigo, un sargento británico que acaba de volver de la exploraciónIndia. El sargento muestra a sus anfitriones un amuleto en forma de pata de mono seca y marchita... [que tiene] el diseño poder de conceder tres deseos a tres personas... El último [deseo de su primer propietario fue] morir... Su amigo... desea poner a prueba sus poderes. Como primer [deseo] pide 200 libras. Poco después llaman a la puerta y un funcionario de sistemas autola empresa en que trabaja su hijo entra en la habitación. El padre se entera de que su hijo ha muerto en un accidente con las máquinas, por lo que la empresa... desea pagarle al padre la suma de 200 libras... Desconsolado, el padre formula su segundo deseo -regulados), compara con que su hijo vuelva- y cuando se oye otra llamada en la puerta... aparece algo... el fantasma del hijo. El último deseo es que el fantasma desaparezca. La moraleja de estas historias es que la magia el comportamientoes literal ... Las máquinas que aprenden también son literales. Si programamos una máquina... y poco inteligente de las computadorasle pedimos que nos lleve a la victoria, y pone el siguiente ejemplo (Wiener1948-1961):no sabemos lo que queremos decir con eso, veremos al fantasma llamando a nuestra puerta.''
''Másterrible La moraleja que cualquiera Wiener extrae de estos cuentos este cuento (Jacobs 1902) es evidente: como la fábula de la pata del monomagia,escrita por W.W.Jacobs, escritor inglés de principios del siglo [XX]. Untrabajador inglés retirado está sentado a la mesa con su esposa y un amigolas computadoras obedecen literalmente las órdenes que reciben, unsargento británico que acaba de volver de la India. El sargento muestra a susanfitriones un amuleto sin tener en forma cuenta muchos datos de pata de mono seca y marchita... [los que tiene]el poder de conceder tres deseos a tres personas... El último [deseo de suprimer propietario fue] morir... Su amigo... desea poner a prueba sus poderes.Como primer [deseo] pide 200 libras. Poco después llaman a la puerta y unfuncionario de la empresa en nosotros disponemos, que trabaja su hijo entra en la habitación. Elpadre se entera de que su hijo ha muerto en un accidente con las máquinas, solemos dar porlo que la empresa... desea pagarle al padre la suma de 200 libras...Desconsoladosupuestos, el padre formula su segundo deseo -pero que su hijo vuelva- y cuando seoye otra llamada en la puerta... aparece algo... el fantasma del hijo. Elúltimo deseo es que el fantasma desaparezca. La moraleja de estas historias esque la magia es literal... Las máquinas que aprenden también son literales. Siprogramamos una máquina... y le pedimos que nos lleve a la victoria, y ellas nosabemos lo que queremos decir con eso, veremos al fantasma llamando a nuestra puertaposeen.''
La moraleja que Wiener
extrae de este cuento (Jacobs 1902) es evidente: como la magia, las
computadoras obedecen literalmente las órdenes que reciben, sin tener en cuenta
muchos datos de los que nosotros disponemos, que solemos dar por supuestos, pero
que ellas no poseen.
'''3.4.===Algunos proyectos fallidos hacia la inteligencia artificial fuerte'''===
Es curioso que losproyectos más ambiciosos y famosos del campo de la inteligencia artificial, losque se han adentrado en las zonas fronterizas entre la inteligencia artificialdébil y la fuerte, hayan terminado mal desde el punto de vista de la tecnología,aunque no desde otros puntos de vista. Vamos a revisar someramente tres de losmás conocidos:
'''3.4.1.
Quinta generación japonesa'''
====Quinta generación japonesa==== Hacia los años setenta sedistinguían cuatro generaciones de computadoras, tanto desde el punto de vistadel ''hardware'' como del ''software''.
Generaciones de ''hardware'':
'''Primerageneración''': ordenadores construidos conválvulas electrónicas de vacío.
'''Segundageneración''': ordenadores construidos contransistores.
'''Tercerageneración''': ordenadores construidos concircuitos integrados.
'''Cuartageneración''': ordenadores dotados de un sistemaoperativo capaz de funcionar en tiempo compartido (ejecutando variasaplicaciones al mismo tiempo) y con memoria virtual.
Generaciones de ''software'':
'''Primerageneración''': programas escritos en lenguajebinario (lenguaje de la máquina). '''Segunda generación''': programas escritos en lenguaje simbólico (ensamblador). '''Tercera generación''': programas escritos en lenguajes de alto nivel. El primero fue FORTRAN, pero luego proliferaron como en una torre de Babel. '''Cuarta generación''': programas escritos mediante sistemas de generación automática de aplicaciones, con acceso a bases de datos. A finales de los años setenta, el gobierno japonés decidió emprender un proyecto que pusiera a su país a la cabeza de la informática mundial. Según explicaron, estaban cansados de que el resto del mundo considerara a los japoneses como ''copiadores eficientes'' de la tecnología desarrollada por otros países. Esta vez querían ser ellos los copiados. Por eso pusieron en marcha el proyecto de la '''quinta generación''' (tanto en el ''hardware'' como en el ''software''), que consistiría en lo siguiente: '''Quinta generación de ''hardware''''': ordenadores adaptados para simplificar la construcción de aplicaciones de inteligencia artificial. '''Quinta generación de ''software''''': programas de inteligencia artificial escritos en lenguaje Prolog, capaces de interaccionar con el usuario en su propia lengua (inglés y japonés) y de traducir correctamente entre esas dos lenguas. El lenguaje Prolog, inspirado en las reglas de los sistemas expertos descritas en el apartado 2.6, fue diseñado durante los años setenta para escribir aplicaciones de inteligencia artificial (Clocksin 1981-2003), y se basaba en la realización de deducciones lógicas representadas por reglas definidas en orden arbitrario, por lo que se dice que este lenguaje es ''no procedimental''. Un gestor de inferencias como el de los sistemas expertos se encarga de decidir en qué orden deben ejecutarse las reglas.
El proyecto de la quinta generación debía durar diez años y terminó a principios de los años noventa con un fracaso. Los supuestos ordenadores de quinta generación que iban a construirse resultaron ser ordenadores personales corrientes, dotados de un ''firmware'' que les permitía entender el lenguaje Prolog, lo cual no era nuevo, pues los primeros ordenadores personales llevaban un 'Segundageneración'firmware'': programas escritos en que les capacitaba para entender el lenguajesimbólico Basic. Los grandes objetivos (ensambladortraducción automática y comprensión del lenguaje natural)no fueron alcanzados. El éxito del proyecto consistió en empujar a otros países a lanzar proyectos menos ambiciosos, algunos de los cuales sí dieron lugar a resultados razonables.
'''Tercera
generación''': programas escritos en lenguajes
de alto nivel. El primero fue FORTRAN, pero luego proliferaron como en una
torre de Babel.
'''Cuartageneración''': programas escritos mediantesistemas ====Iniciativa de generación automática de aplicaciones, con acceso a bases de datos.Defensa Estratégica====
A finales de los añossetenta, el gobierno japonés decidió emprender un proyecto que pusiera a supaís a la cabeza de la informática mundial. Según explicaron, estaban cansadosde que el resto del mundo considerara a los japoneses Conocida también como ''copiadores'SDI' ''eficientes ''dela tecnología desarrollada (por otros países. Esta vez querían ser ellos loscopiados. Por eso pusieron sus siglas en marcha el proyecto de la inglés) y como '''quinta generaciónStar Wars''' (tanto en el ''hardwarela guerra de las galaxias''como ), este proyecto fue lanzado por la administración de Ronald Reagan durante los años 80 para romper el equilibrio nuclear entre las grandes potencias. Su objeto era la construcción de un sistema de defensa espacial que protegiera a los Estados Unidos contra un posible ataque global con proyectiles nucleares, gracias a un conjunto de satélites artificiales que escudriñarían permanentemente el planeta para localizar los primeros síntomas de un ataque nuclear y pondrían en el marcha diversos mecanismos dirigidos a contrarrestar dicho ataque, impidiendo que los proyectiles intercontinentales ICBM (''softwareInter-Continental Balistic Missile'')llegaran a su destino. Un ICBM tiene un alcance de miles de kilómetros y sería lanzado en una órbita que le llevaría fuera de la atmósfera, hasta una altitud de unos 1200 kilómetros. De acuerdo con los tratados contra la proliferación nuclear, cada proyectil no podría transportar más de diez cabezas nucleares, que consistiríaen lo siguiente:al final se separarían para dirigirse hacia diez objetivos diferentes, aunque sí podría llevar un número mucho más grande de señuelos, proyectiles secundarios sin carga nuclear, cuya única misión era disminuir la probabilidad de que los proyectiles cargados fuesen destruidos antes de alcanzar el objetivo.
'''Quintageneración Un ataque nuclear total supondría el lanzamiento de ''hardware'''''unas 10.000 cabezas nucleares. Antes de la puesta en marcha de la iniciativa de defensa estratégica, cuando una de las grandes potencias descubriera que la otra había lanzado el ataque, sólo le quedaban dos posibilidades:ordenadores adaptados para simplificar aceptar la destrucción sin tomar represalias o lanzar un contragolpe, lo que daría lugar a la construcción destrucción mutua de aplicaciones ambas partes. El mundo permaneció en esta situación deinteligencia artificialamenaza permanente durante unos cuarenta años.
'''Quintageneración El objetivo de ''software'''''la iniciativa de defensa estratégica era proporcionar una tercera alternativa:programas de inteligencia artificial escritos en lenguaje Prolog, capaces deinteraccionar con localizar prematuramente el usuario en ataque y destruir las 10.000 cabezas nucleares durante su propia lengua vuelo por el espacio. Para conseguirlo sería preciso detectar los ICBM durante el lanzamiento (inglés los diez primeros minutos) y japonésdestruirlos durante la fase de movimiento balístico sin empuje activo (unos 25 minutos) , pero antes de la fase terminal, cuando las cabezas nucleares y los señuelos se independizan, lo que haría prácticamente imposible la destrucción detraducir correctamente entre esas dos lenguastodos ellos.
El lenguaje Prolog,inspirado en las reglas de Para poder destruir los sistemas expertos descritas en el apartado 2.6,fue diseñado proyectiles durante los años setenta para escribir aplicaciones la fase deinteligencia artificial movimiento balístico, se iban a utilizar armas avanzadas (Clocksin 1981-2003algunas aún no has sido desarrolladas), y se basaba en como proyectiles antiproyectiles, armas de haces de partículas o láseres de rayos X. Obviamente no hay tiempo para la realización dededucciones lógicas representadas por reglas definidas participación humana en orden arbitrarioel proceso, porlo que se dice que este lenguaje es el sistema entero debería ser autónomo, controlado mediante programas de ''noprocedimentalinteligencia artificial''. Un gestor de inferencias como el de los sistemas expertos seencarga de decidir en qué orden deben ejecutarse las reglas.
El proyecto de laquinta generación debía durar diez años y terminó a principios de los añosnoventa con un fracaso. Los supuestos ordenadores de quinta generación que ibana construirse resultaron ser ordenadores personales corrientes, dotados de un SDI (''firmwareStar Wars'' que les permitía entender ellenguaje Prolog, lo cual ) no era nuevollegó a implementarse, pues pero el simple anuncio de su puesta en marcha quizá fue uno de los primeros ordenadores personalesllevaban un ''firmware'' elementos que lescapacitaba influyó para entender que se rompiera el lenguaje Basic. Los equilibrio entre las dos grandes objetivos (traducciónautomática potencias, lo que habría conducido a la desintegración de la Unión Soviética y comprensión del lenguaje natural) no fueron alcanzados. El éxitodel proyecto consistió en empujar a otros la liberación de los países a lanzar proyectos menos ambiciosospertenecientes al Pacto de Varsovia,algunos que se deshicieron de los cuales sí dieron lugar a resultados razonablesregímenes dictatoriales comunistas y pasaron al sistema democrático, realineándose después como miembros de la Unión Europea y de la OTAN.
'''3.4.2.
Iniciativa de Defensa Estratégica'''
Conocida también como '''SDI''' (por sus siglas en inglés) y como '''Star Wars''' (''la guerra de las galaxias''), este proyecto fue lanzado por laadministración de Ronald Reagan durante los años 80 ====Cápsulas inteligentes para romper el equilibrionuclear entre las grandes potencias. Su objeto era la construcción de unexploración del sistema de defensa espacial que protegiera a los Estados Unidos contra un posibleataque global con proyectiles nucleares, gracias a un conjunto de satélitesartificiales que escudriñarían permanentemente el planeta para localizar losprimeros síntomas de un ataque nuclear y pondrían en marcha diversos mecanismosdirigidos a contrarrestar dicho ataque, impidiendo que los proyectiles intercontinentalesICBM (''Inter-Continental Balistic Missile'')llegaran a su destino. Un ICBM tiene un alcance de miles de kilómetros y seríalanzado en una órbita que le llevaría fuera de la atmósfera, hasta una altitudde unos 1200 kilómetros. De acuerdo con los tratados contra la proliferaciónnuclear, cada proyectil no podría transportar más de diez cabezas nucleares,que al final se separarían para dirigirse hacia diez objetivos diferentes,aunque sí podría llevar un número mucho más grande de señuelos, proyectilessecundarios sin carga nuclear, cuya única misión era disminuir la probabilidadde que los proyectiles cargados fuesen destruidos antes de alcanzar elobjetivo. solar====
Un ataque nuclear totalsupondría el lanzamiento La Agencia Espacial estadounidense (NASA) ha utilizado también técnicas de unas 10.000 cabezas nuclearesinteligencia artificial para la exploración del espacio. Antes de En la puestaen marcha exploración de la iniciativa astros lejanos las comunicaciones son difíciles, pues el tiempo de defensa estratégicatransmisión puede ser superior a una hora entre ida y vuelta, cuando una de las grandespotencias descubriera por lo que la otra había lanzado el ataque, sólo le quedaban dosposibilidades: aceptar la destrucción sin tomar represalias o lanzar un contragolpebien se programa todo por anticipado,lo o es preciso introducir técnicas que daría lugar permitan a la destrucción mutua de ambas partes. El mundo permaneció enesta situación de amenaza permanente durante unos cuarenta añoscápsula espacial responder automáticamente a situaciones no previstas.
El objetivo diseño de la iniciativade defensa estratégica primera cápsula espacial que debería ser completamente autónoma comenzó en 1982. Su objetivo era proporcionar una tercera alternativa: localizar prematuramenteexplorar Titán, el ataque y destruir las 10.000 cabezas nucleares durante su vuelo por elespacio. Para conseguirlo sería preciso detectar más grande de los ICBM durante ellanzamiento (los diez primeros minutos) y destruirlos durante la fase satélites demovimiento balístico sin empuje activo (unos 25 minutos), pero antes Saturno. El grupo de la faseterminal, cuando las cabezas nucleares y los señuelos se independizan, lo trabajo queharía prácticamente imposible la destrucción de todos ellos. inició el diseño escribió esto:
Para poder destruir losproyectiles durante la fase ''Los sistemas de movimiento balístico, se iban a utilizar armasavanzadas (algunas aún no has sido desarrolladas), como proyectilesantiproyectiles, armas inteligencia artificial con capacidad de haces formación automática de partículas o láseres hipótesis serán necesarios para el examen autónomo de rayos Xambientes desconocidos. Obviamenteno hay tiempo Esta capacidad es muy deseable para la participación humana en el procesoexploración eficaz del Sistema Solar, por lo que el sistemaentero debería ser autónomo, controlado mediante programas y es esencial para la investigación de otros sistemas estelares.''inteligencia artificial''.
El proyecto SDI (''Star Wars'') no llegó a implementarse,pero el simple anuncio Las técnicas de su puesta en marcha quizá fue uno de los elementosque influyó para inteligencia artificial que se rompiera el equilibrio entre las dos grandes potencias,lo que habría conducido a la desintegración de la Unión Soviética y a laliberación de los países pertenecientes al Pacto de Varsovia, que se deshicieronde los regímenes dictatoriales comunistas y pasaron al sistema democrático,realineándose después como miembros de la Unión Europea y de la OTAN.consideraban necesarias eran:
'''3# Corrección autónoma de errores.4.3.Cápsulas inteligentes para la exploración del sistema solar'''
La Agencia Espacial estadounidense(NASA) ha utilizado también técnicas de inteligencia artificial para la exploracióndel espacio. En la exploración de astros lejanos las comunicaciones son difíciles,pues el tiempo de transmisión puede ser superior a una hora entre ida y vuelta,por lo que, o bien se programa todo por anticipado, o es preciso introducirtécnicas que permitan a la cápsula espacial responder automáticamente asituaciones no previstas# Proceso en paralelo.
El diseño de la primeracápsula espacial que debería ser completamente autónoma comenzó en 1982# Capacidad lógica y dialéctica. Suobjetivo era explorar Titán, el más grande de los satélites de Saturno. Elgrupo de trabajo que inició el diseño escribió esto:
''Lossistemas de inteligencia artificial con capacidad # Adquisición, reconocimiento de formas y formación automática dehipótesis serán necesarios para el examen autónomo de ambientes desconocidos.Esta capacidad es muy deseable para la exploración eficaz del Sistema Solar, yes esencial para la investigación de otros sistemas estelaresconceptos.''
Las técnicas deinteligencia artificial que se consideraban necesarias eran:# Utilización del razonamiento abductivo.
<!--[if !supportLists]-->1Cuando en 1997 se lanzó la misión Cassini/Huygens (NASA 2011), se programó por procedimientos tradicionales, pues varias de estas técnicas aún no estaban disponibles (siguen sin estarlo). Cuando la misión llegó en 2004 a las proximidades de Saturno, una de sus componentes, la sonda Huygens, descendió a la superficie de Titán y envió numerosos datos sobre lo que encontró allí. Es curioso, sin embargo, que la actuación de la cápsula tuvo que modificarse en el último momento desde la Tierra, pues se descubrió que el programa que la dirigía contenía un error crítico de diseño (no se había tenido en cuenta el efecto Doppler). Como era imposible cambiar el programa informático y éste no podía adaptarse por sí solo a la nueva situación, hubo que buscar una solución de compromiso, que consistió en modificar la trayectoria prevista para minimizar el efecto Doppler.                 <!--[endif]-->Corrección Afortunadamente, este reajuste fue suficiente para evitar que se perdiera la información de la sonda, pero esto indica que los objetivos iniciales de dotar a la cápsula de inteligencia artificial autónoma estaban muy lejos de haberse cumplido. Tampoco la misión ''New Horizons'', lanzada en 2006 y que en 2015 ha llegado a Plutón, puede considerarse un ejemplo de inteligencia artificial autónoma, por lo que los grandes proyectos de la NASA deerroreslos años ochenta no se han cumplido satisfactoriamente.
<!--[if !supportLists]-->2.                 
<!--[endif]-->Proceso en paralelo.
<!--[if !supportLists]-->3.                 <!--[endif]-->Capacidad lógica ydialéctica.===¿Es posible la inteligencia artificial fuerte?===
<!--[if !supportLists]-->4Como hemos visto, se dice con frecuencia que estamos cerca de conseguir la verdadera ''inteligencia artificial'', la de máquinas tan inteligentes (o más) que los seres humanos.                 <!--[endif]-->Adquisición''¿Es esto posible, y si lo es,reconocimiento de formas está realmente tan cerca como parecen creer algunos expertos y formación los medios de conceptos.comunicación?''
<!--[if !supportLists]-->5Para responder a esta pregunta hace falta saber algo más que informática, hay que adentrarse en los campos de la biología y de la filosofía.                 <!--[endif]-->Utilización delrazonamiento abductivoDespués de todo, la ''inteligencia artificial'' es una copia. Existe una ''inteligencia natural'' que nos sirve de base y punto de comparación. La pregunta anterior puede reformularse así: ''¿sabemos lo que es la inteligencia natural, cómo surge y cómo se desarrolla, para poder emularla en nuestras máquinas?'' Porque si no sabemos lo que estamos buscando, difícilmente vamos a conseguirlo.
Cuando en 1997 A esta pregunta se lanzóla misión Cassini/Huygens le han dado cuatro respuestas filosóficas diferentes e incompatibles (NASA 2011), se programó por procedimientostradicionalesSoler 2013, pues varias de estas técnicas aún no estaban disponibles (siguensin estarloPolaino 2014). Cuando la misión llegó en 2004 a las proximidades de Saturno, unade sus componentes, la sonda Huygens, descendió a la superficie de Titán yenvió numerosos datos sobre lo que encontró allí. Es curioso, sin embargo, quela actuación de la cápsula tuvo que modificarse en el último momento desde laTierra, pues se descubrió que el programa que la dirigía contenía un errorcrítico de diseño (no se había tenido en cuenta el efecto Doppler). Como eraimposible cambiar el programa informático y éste no podía adaptarse por sí soloa la nueva situación, hubo que buscar una solución de compromiso, que consistióen modificar la trayectoria prevista para minimizar el efecto Doppler.Afortunadamente, este reajuste fue suficiente para evitar que se perdiera lainformación de la sonda, pero esto indica que los objetivos iniciales de dotara la cápsula de inteligencia artificial autónoma estaban muy lejos de haberse cumplido.Tampoco la misión ''New Horizons'',lanzada en 2006 y que en 2015 ha llegado a Plutón, puede considerarse unejemplo de inteligencia artificial autónoma, por lo que los grandes proyectos dela NASA de los años ochenta no se han cumplido satisfactoriamente.:
# '''3Dualismo metafísico''': la mente y el cerebro son dos realidades diferentes.5La primera es una sustancia espiritual y no espacial, capaz de interaccionar con el cerebro, que es material y espacial.¿Es posible Ambas entidades pueden existir independientemente la una de la otra (Descartes 1647), aunque el cuerpo sin la inteligencia artificial fuerte?'''mente acaba por descomponerse.
Como hemos visto, sedice con frecuencia que estamos cerca de conseguir la verdadera # '''Dualismo neurofisiológico'inteligencia artificial'': la mente y el cerebro son diferentes, la de máquinaspero están tan inteligentes íntimamente unidas que llegan a constituir una unidad (o másEccles 1984) que los seres humanos. ''¿Es esto posible, son dos estados complementarios y si lo es, está realmente tan cerca como parecencreer algunos expertos y los medios únicos de comunicación?'' un mismo organismo (Damasio 1996).
Para responder a estapregunta hace falta saber algo más que informática, hay que adentrarse en loscampos de la biología y de la filosofía. Después de todo, la # ''inteligencia artificial'Monismo emergentista' es una copia.Existe una ''inteligencia natural'' : la mente es un producto evolutivo emergente con auto-organización, quenos sirve ha surgido como un sistema complejo a partir de base y punto de comparaciónsistemas más simples formados por las neuronas (Clayton 1999, 2004, Damasio 1998, Kauffman 2003, Searle 2004). La pregunta anterior puedereformularse así: ''¿sabemos lo Clayton, por ejemplo, sostiene que es las estructuras subyacentes no pueden determinar por completo lainteligencia naturalevolución de los fenómenos mentales, cómo surge y cómo se desarrolla, para poder emularla ennuestras máquinas?'' Porque si no sabemos lo pero que estamos buscando,difícilmente vamos a conseguirloestos sí pueden influir sobre aquellas.
A esta pregunta se lehan dado cuatro respuestas filosóficas diferentes e incompatibles # '''Monismo reduccionista o funcionalismo biológico''': la mente está totalmente determinada por el cerebro, y este por la red de neuronas que lo constituye. El pensamiento humano es un epifenómeno. La libertad de elección es una ilusión. Somos máquinas programadas (Soler 2013Dennett 1991, Polaino2014Penrose 2004):.
<!--[if !supportLists]-->1.      <!--[endif]-->'''Dualismo metafísico''':Es evidente que los partidarios de la mente y opción número 4 (el cerebro son dos realidades diferentes. La primera es monismo reduccionista) creen de forma natural que la inteligencia artificial fuerte debe ser posible, incluso con máquinas como las que ya tenemos, cuando alcancen unasustancia espiritual potencia y no espacialvelocidad suficientes. Los partidarios de la opción número 3 (monismo emergentista) tienden a pensar que, para que la inteligencia artificial fuerte sea posible, capaz primero tenemos que cumplir una condición previa: conocer a fondo el funcionamiento de interaccionar con el nuestro cerebro, antes de quees material y espacialseamos capaces de simularlo (Hawkins 2004). Ambas entidades pueden existir independientemente laPara los que abrazan una de estas dos opciones, la otra (Descartes 1647)mente no es más que el ''software'' de nuestro cerebro, aunque el cuerpo sin la mente acaba pordescomponerseprograma que le hace funcionar. Por eso, ambas posturas filosóficas tienden a ser ''funcionalistas''.
<!--[if !supportLists]-->2.      <!--[endif]-->'''Dualismoneurofisiológico''': En cambio, los partidarios de las dos primeras opciones, que piensan que la mente y el cerebroson diferentesentes distintos, pero están tan aunque puedan estar íntimamente unidas relacionados, suelen opinar que llegan crear una inteligencia artificial fuerte no estará nunca a constituir unaunidad (Eccles 1984)nuestro alcance, porque antes tendríamos que ser capaces de crear mentes, lo que es probablemente imposible, puesto que la mente estaría fuera del alcance de la física, son dos estados complementarios y únicos por tanto de un mismo organismo(Damasio 1996)la tecnología.
<!--[if !supportLists]-->3.      <!--[endif]-->'''Monismo emergentista''':
la mente es un producto evolutivo emergente con auto-organización, que ha
surgido como un sistema complejo a partir de sistemas más simples formados por
las neuronas (Clayton 1999, 2004, Damasio 1998, Kauffman 2003, Searle 2004).
Clayton, por ejemplo, sostiene que las estructuras subyacentes no pueden
determinar por completo la evolución de los fenómenos mentales, pero que estos sí
pueden influir sobre aquellas.
<!--[if !supportLists]-->4.      <!--[endif]-->'''Monismo reduccionista ofuncionalismo biológico''': la mente estátotalmente determinada por el cerebro, y este por la red de neuronas que loconstituye. El pensamiento humano es un epifenómeno. La  libertad de elección es una ilusión. Somosmáquinas programadas (Dennett 1991, Penrose 2004).==Consideraciones finales==
Es evidente que lospartidarios En este artículo hemos revisado las dos acepciones de la opción número 4 (el monismo reduccionista) creen de formanatural que Inteligencia Artificial: la inteligencia artificial fuerte debe ser posibledébil, incluso conmáquinas como las que ya tenemosestá entre nosotros, cuya inteligencia es bastante discutible, cuando alcancen una potencia pero que ha dado lugar a muchas aplicaciones interesantes; y velocidadsuficientes. Los partidarios de la opción número 3 (monismo emergentista)tienden a pensar quefuerte, para que la verdadera inteligencia artificial fuerte sea posible,primero tenemos que cumplir una condición previa: conocer aún no existe y quizá nunca llegue a fondo elfuncionamiento de nuestro cerebroexistir. Y si existiera, antes de que seamos capaces de simularlo(Hawkins 2004). Para ni siquiera hemos llegado a un acuerdo sobre los medios que abrazan una de estas dos opciones, la mente no esmás que el ''software'' de nuestrocerebro, el programa que le hace funcionar. Por eso, ambas posturas filosóficastienden a ser ''funcionalistas''podríamos emplear para detectarla.
En cambioSiempre es arriesgado predecir el futuro, pero parece claro que muchos de lospartidarios de las dos primeras opcionesavances que se anuncian con ligereza como inminentes están aún lejanos. Por ejemplo, no es probable que piensan que la mente y el cerebroson entes distintosobjetivo de comunicarse con las máquinas en lenguaje totalmente natural se encuentre siquiera a pocas décadas de distancia. Y, aunque puedan estar íntimamente relacionadospor supuesto, suelenopinar que crear una inteligencia artificial fuerte no estará nunca a nuestroalcancelas predicciones de Ray Kurzweil, porque antes tendríamos que ser capaces algunas de crear menteslas cuales ya han sido refutadas por el paso del tiempo, lo que esprobablemente imposibleno van a cumplirse en un futuro inmediato, puesto suponiendo que la mente estaría fuera del alcance de lafísica, y por tanto de la tecnologíasean posibles.
'''4No sabemos, ni hay acuerdo entre los expertos, si será factible o no, por medios informáticos, construir inteligencias iguales o superiores a la nuestra, con capacidad de auto-consciencia.Consideraciones finales'''Por medios biológicos, es evidente que sí podemos hacerlo, pues una persona puede engendrar hijos con inteligencia igual o superior a la suya. ¿Será posible a través de la tecnología? Y si lo fuese, ¿podemos asegurar que la construcción de estas máquinas no se convertirá en una amenaza para nuestra existencia?
En este artículo hemosrevisado las dos acepciones el estado actual de nuestros conocimientos no tenemos respuesta a esta pregunta. Esta cuestión se sale fuera del campo de la Inteligencia Artificial: informática y se adentra en el de la débilfilosofía, que yapues está entre nosotros, cuya inteligencia es bastante discutible, pero que ha dadolugar a muchas aplicaciones interesantes; íntimamente ligado con el problema de la mente y la fuerte, la verdaderainteligenciaconsciencia humanas, que aún no existe y quizá nunca llegue está resuelto a existir. Y si existiera,ni siquiera hemos llegado a un acuerdo sobre los medios que podríamos emplearpara detectarlasatisfacción de todos.
Siempre es arriesgado
predecir el futuro, pero parece claro que muchos de los avances que se anuncian
con ligereza como inminentes están aún lejanos. Por ejemplo, no es probable que
el objetivo de comunicarse con las máquinas en lenguaje totalmente natural se
encuentre siquiera a pocas décadas de distancia. Y, por supuesto, las
predicciones de Ray Kurzweil, algunas de las cuales ya han sido refutadas por
el paso del tiempo, no van a cumplirse en un futuro inmediato, suponiendo que sean
posibles.
No sabemos, ni hayacuerdo entre los expertos, si será factible o no, por medios informáticos,construir inteligencias iguales o superiores a la nuestra, con capacidad deauto-consciencia. Por medios biológicos, es evidente que sí podemos hacerlo,pues una persona puede engendrar hijos con inteligencia igual o superior a lasuya. ¿Será posible a través de la tecnología? Y si lo fuese, ¿podemos asegurarque la construcción de estas máquinas no se convertirá en una amenaza paranuestra existencia?==Bibliografía==
En el estado actual denuestros conocimientos no tenemos respuesta a esta preguntaAckerman, Evan. 2014. Esta cuestión sesale fuera del campo de la informática y se adentra en el de la filosofía“Can Winograd Schemas Replace Turing Test for Defining Human-Level AI?” ''IEEE Spectrum''<nowiki>, puesestá íntimamente ligado con el problema de la mente y la consciencia humanasposted 29 Jul 2014,que aún no está resuelto a satisfacción de todoshttp://spectrum.ieee.org/automaton/robotics/artificial-intelligence/winograd-schemas-replace-turing-test-for-defining-humanlevel-artificial-intelligence. </nowiki>
Alfonseca, Manuel. 1980. “Automatic solution of sorites” '''Referencias 'Kybernetes'', Vol.9:1, 37-44. doi: 10.1108/eb005540.
= Ackerman, Evan. 2014. “Can Winograd Schemas Replace Turing Test for Defining Human-Level AI?” ''IEEE Spectrum''<nowiki>Alfonseca, posted 29 Jul 2014Manuel. 2015. “Vivir, o el poder de la abducción” http://spectrumdivulciencia.ieeeblogspot.orgcom/automaton2015/robotics10/artificialvivir-intelligence/winogrado-schemasel-replacepoder-turingde-testla-for-defining-humanlevel-artificial-intelligenceabduccion.html.</nowiki> =
= Alfonseca, Manuel; Cebrián, Manuel; Fernández-Anta, Antonio; Coviello, Lorenzo; Abeliuk, Andrés; Rahwan, Iyad. 1980Inédito. “Automatic solution of sorites” ''Kybernetes'', Vol.9:1, 37-44“Superintelligence cannot be contained”. =
= doi: 10Asimov, Isaac.1108/eb0055401950. ''I, robot''. Doubleday, New York. =
= <nowiki>Alfonseca, ManuelBBC News Online. 20152016. “Vivir“Artificial Intelligence: Google’s AlphaGo beats Go master Lee Sedol”, 12 March 2016, o el poder de la abducción” http://divulcienciawww.blogspotbbc.com/2015news/10/vivir-o-eltechnology-poder-de-la-abduccion.html35785875.</nowiki> =
= AlfonsecaBishop, Manuel; Cebrián, Manuel; Fernández-Anta, Antonio; Coviello, Lorenzo; Abeliuk, Andrés; Rahwan, IyadChristopher M. 2006. Inédito ''Pattern Recognition and Machine Learning''. “Superintelligence cannot be contained”Springer. = 
= AsimovBostrom, IsaacNick. 19502005. “A history of transhumanist thought”''I, robotJournal of Evolution and Technology''<nowiki>. Doubleday, New Yorkhttp://www.nickbostrom.com/papers/history.pdf. =</nowiki>
= <nowiki>BBC News Online. 2016. “Artificial Intelligence: Google’s AlphaGo beats Go master Lee Sedol”Bowling, Michael; Burch, Neil; Johanson, 12 March 2016Michael; Tammelin, http://wwwOskari.bbc2015.com/news/technology“Heads-35785875up limit hold’em poker is solved” ''Science'', 347(6218):145–149.</nowiki> =
= BishopCampbell, Christopher MMurray; Hoane, A. Joseph and Feng-hsiung Hsu. 20062002. “Deep Blue” ''Pattern Recognition and Machine LearningArtificial Intelligence'', 134(1-2):57–83. Springer. =
= Bostrom, Nick. 2005. “A history of transhumanist thought”'' Journal of Evolution and Technology''<nowiki>Chess News. 2004. http://wwwen.nickbostromchessbase.com/paperspost/history.pdfbilbao-man-vs-machine-a-resume.</nowiki> =
= Bowling, Michael; Burch, Neil; Johanson, Michael; Tammelin, Oskari<nowiki>Chess News. 20152005. “Headshttp://en.chessbase.com/post/8-4-final-score-for-the-machines-what-next-up limit hold’em poker is solved” ''Science'', 347(6218):145–149. =</nowiki>
= CampbellClayton, Murray; HoanePhilip. 1999. “Neuroscience, A. Joseph the person and Feng-hsiung HsuGod: an emergentist account”. 2002. “Deep Blue” En ''Artificial IntelligenceNeuroscience & the person. Scientific perspectives on divine action'', 134(1-2):57–83ed. Russell, R.J.; Murphy, N.; Meyering, T.; Arbib, M. Vatican Observatory Publications, Vaticano. =
= <nowiki>Chess NewsClayton, Philip. 2004. http://en''Mind and Emergence, from Quantum to Consciousness''.chessbaseOxford University Press, Oxford.com/post/bilbao-man-vs-machine-a-resume.</nowiki> =
= <nowiki>Chess NewsClocksin, William F. 2005; Mellish, Christopher S. http://en1981, 2003. ''Programming in Prolog''.chessbaseSpringer, Berlin, New York.com/post/8-4-final-score-for-theISBN:  978-machines3-what540-next00678-7.</nowiki> =
= ClaytonDamasio, PhilipAntonio. 19991996. “Neuroscience, the person and God: an emergentist account”. En ''Neuroscience & the person. Scientific perspectives on divine actionEl error de Descartes'', ed. Russell, R.J.; Murphy, N.; Meyering, T.; Arbib, M. Vatican Observatory PublicationsGijalbo-Mondadori, VaticanoBarcelona. =
= ClaytonDamasio, PhilipAntonio. 20041998. ''Mind The feeling of what happens: body and Emergence, from Quantum to Consciousnessemotion in the making of consciousness''. Oxford University PressHarcourt, OxfordNew York. =
= ClocksinDennett, William FDaniel.; Mellish, Christopher S1991. ''Consciousness explained''. 1981, 2003The Penguin Press. Existe traducción española: ''Programming in PrologLa conciencia explicada''. SpringerPaidos, Berlin, New York. ISBN:  978-3-540-00678-7Barcelona. =
= DamasioDescartes, AntonioRené. 19961647. ''El error de DescartesLa description du corps humain''. Gijalbo-Mondadori, Barcelona. =
= DamasioDickmanns, AntonioErnst Dieter. 19982007. ''The feeling of what happens: body Dynamic Vision for Perception and emotion in the making Control of consciousnessMotion''. Harcourt, New YorkSpringer. =
= DennettDong Yu, DanielLi Deng. 19912015. ''Consciousness explainedAutomatic speech recognition''. The Penguin PressSpringer. Existe traducción españolaISBN: ''La conciencia explicada''. Paidos, Barcelona978-1-4471-5778-6. =
= DescartesEccles, RenéJ. 1647; Robinson, D.N. 1984. ''La description du corps humainThe wonder of being human. Our brain & our mind''. =Free Press, New York.
= DickmannsFaundez Zanuy, Ernst DieterM. 20072000. ''Dynamic Vision for Perception and Control of MotionTratamiento digital de voz e imagen y aplicación a la multimedia''. SpringerMarcombo, Barcelona. =
= Dong YuFeigenbaum, Li DengEdward A. 2015; McCorduck, Pamela. 1983. ''Automatic speech recognitionThe fifth generation''. SpringerAddison-Wesley, Reading MA. ISBN: 978-10-4471201-577811519-62. =
= EcclesFerrucci, David; Brown, Eric; Chu-Carroll, Jennifer; Fan, James; Gondek, David; Kalyanpur, Aditya A.; Lally, Adam; Murdock, J.William; Nyberg, Eric; RobinsonPrager, DJohn; Schlaefer, Nico; Welty, Chris.N. 19842010. “Building Watson: an overview of the DeepQA project” ''The wonder of being human. Our brain & our mindAI Magazine''. Free Press, New York. =
= Faundez ZanuyFisher, MAdam. 20002013. “Inside Google's quest to popularize self-driving cars”. 'Tratamiento digital de voz e imagen y aplicación a la multimedia'Popular Science''<nowiki>. September 18 2013. http://www. Marcombo, Barcelonapopsci.com/cars/article/2013-09/google-self-driving-car. =</nowiki>
= FeigenbaumGoldberg, Edward ADavid.; McCorduck, Pamela. 19831989. ''The fifth generationGenetic algorithms in search, optimization and machine learning''. Addison-Wesley, Reading MA. ISBN: 978-0-201-11519-20201157673. =
= FerrucciGurney, David; Brown, Eric; Chu-Carroll, Jennifer; Fan, James; Gondek, David; Kalyanpur, Aditya A.; Lally, Adam; Murdock, J. William; Nyberg, Eric; Prager, John; Schlaefer, Nico; Welty, ChrisK. 20101997. “Building Watson: an overview of the DeepQA project” ''AI MagazineAn introduction to neural networks''. =Routledge, London UK. ISBN: 1-85728-503-4.
= FisherHawkins, AdamJeff. 20132004. “Inside Google's quest to popularize self-driving cars”. 'On intelligence'Popular Science''<nowiki>, St. September 18 2013. http://www.popsci.com/cars/article/2013-09/google-self-driving-carMartin’s Griffin, New York.</nowiki> =
= GoldbergHernandez-Orallo, J; Dowe, DavidD L. 2010. 1989"Measuring Universal Intelligence: Towards an Anytime Intelligence Test". ''Genetic algorithms in search, optimization and machine learningArtificial Intelligence Journal''174 (18): 1508–1539, doi:10. Addison-Wesley, Reading MA1016/j.artint.2010.09. ISBN: 978-0201157673006. =
= GurneyHutchins, KW. 1997J.; Somers, Harold. 1992. ''An introduction to neural networksmachine translation. ''. RoutledgeAcademic Press, London UK. ISBN: 10-8572812-503362830-4X. =
<nowiki>IBM Research. 2011. http://researcher.watson.ibm.com/researcher/view_group.php?id= Hawkins, Jeff2099. Véase también http://www. 2004research. ''On intelligence'', Stibm.Martin’s Griffin, New Yorkcom/cognitive-computing. =</nowiki>
= Hernandez-OralloJacobs, J; Dowe, D LW. 2010. "Measuring Universal Intelligence: Towards an Anytime Intelligence Test"W. , ''Artificial Intelligence JournalThe monkey’s paw'' 174 (18): 1508–1539<nowiki>, doi1902. http:10//americanliterature.1016com/author/w-w-jacobs/short-story/jthe-monkeys-paw.artint.2010.09.006. =</nowiki>
= Hutchins<nowiki>Jochem, W.J.Todd; Pomerleau, Dean; Kumar, Bala; SomersArmstrong, HaroldJeremy. 19921995. ''An introduction to machine translation“PANS: A Portable Navigation Platform”. ''Academic Press, LondonThe Robotics Institute. ISBNhttp: 0-12-362830-X//www.cs.cmu.edu/afs/cs/usr/tjochem/www/nhaa/navlab5_details.html. =</nowiki>
= <nowiki>IBM ResearchJurafsky, Daniel; Martin, James H. 20112008. http://researcher.watson.ibm.com/researcher/view_group''Speech and Language Processing'', Pearson Prentice Hall.php?id=2099. Véase también httpISBN://www.research.ibm.com/cognitive978-0-13-187321-computing6.</nowiki> =
= JacobsKauffman, WS.W2003., ''The monkey’s pawInvestigaciones: complejidad, auto-organización y nuevas leyes para una Biología general''<nowiki>, 1902. http://americanliteratureTusquets.com/author/w-w-jacobs/short-story/the-monkeys-pawBarcelona.</nowiki> =
= <nowiki>JochemKruse, Todd; PomerleauBorgelt, Dean; KumarKlawonn, Bala; ArmstrongMoewes, Jeremy. 1995Steinbrecher, Held, 2013''. “PANSComputational Intelligence: A Portable Navigation Platform”Methodological Introduction''. The Robotics InstituteSpringer. httpISBN://www.cs.cmu.edu/afs/cs/usr/tjochem/www/nhaa/navlab5_details.html978-144-715012-1.</nowiki> =
= JurafskyKurzweil, Daniel; Martin, James HRay. 20081990. ''Speech and Language ProcessingThe age of intelligent machines'', Pearson Prentice Hall. ISBN: 978-0-13-187321-6MIT Press, Cambridge. =
= KauffmanKurzweil, SRay. 20031999. ''Investigaciones: complejidad, auto-organización y nuevas leyes para una Biología generalThe age of spiritual machines'', Penguin Books, New York. Tusquets. Barcelona. =
= KruseKurzweil, Borgelt, Klawonn, Moewes, Steinbrecher, Held, 2013Ray. 2005. ''. Computational Intelligence: A Methodological IntroductionThe singularity is near'', Viking Books, New York. Springer. ISBN: 978-144-715012-1. =
= Kurzweil, Ray. 19902012. ''The age How to create a mind: the secret of intelligent machineshuman thought revealed'', MIT PressViking Books, CambridgeNew York. =
= KurzweilLegg, RayShane; Hutter, Marcus. 19992007. ''The age A Collection of Definitions of spiritual machinesIntelligence'', Penguin Books, New York(Technical report). IDSIA. arXiv:0706.3639. =
= Kurzweil<nowiki>López de Mántaras, RayRamón. 20052013. ''The singularity is near'', Viking Books, New York“Ramón López de Mántaras: Intentar desarrollar una inteligencia artificial igual que la humana es absurdo”. CiViCa. http://www.investigadoresyprofesionales.org/drupal/content/ram%C3%B3n-l%C3%B3pez-de-m%C3%A1ntaras-intentar-desarrollar-una-inteligencia-artificial-igual-que-la-humana. =</nowiki>
= KurzweilLoveland, RayDonald W. 20121978. ''How to create a mindAutomated theorem proving: the secret of human thought revealedA logical basis'', Viking Books, New York. =Fundamental Studies in Computer Science Vol. 6. North-Holland Publishing.
= LeggMcCarthy, Shane; Hutter, MarcusJohn. 2007. ''A Collection of Definitions of IntelligenceWhat is artificial intelligence?'' (Technical report)<nowiki> http://www-formal. IDSIAstanford. arXiv:0706edu/jmc/whatisai/whatisai.3639html. =</nowiki>
= <nowiki>López de MántarasMcCulloch, RamónWarren. 2013Pitts, Walter. “Ramón López de Mántaras: Intentar desarrollar una inteligencia artificial igual que la humana es absurdo”1943. CiViCa"A Logical Calculus of Ideas Immanent in Nervous Activity". http''Bulletin of Mathematical Biophysics'' 5(4)://www115–133.investigadoresyprofesionalesdoi: 10.org/drupal/content1007/ram%C3%B3n-l%C3%B3pez-de-m%C3%A1ntaras-intentar-desarrollar-una-inteligencia-artificial-igual-que-la-humanaBF02478259.</nowiki> =
= LovelandManning, Donald WChristopher; Schütze, Hinrich. 19781999. ''Automated theorem proving: A logical basisFoundations of Statistical Natural Language Processing''<nowiki>. Fundamental Studies in Computer Science VolThe MIT Press. 6. NorthISBN 978-0-262-13360-Holland Publishing9. =</nowiki>
= McCarthyManning, JohnChristopher; Raghavan, Prabhakar; Schütze, Hinrich. 20072008. ''What is artificial intelligence?Introduction to Information Retrieval''<nowiki> http://www-formal.stanford.edu/jmc/whatisai/whatisai.htmlCambridge University Press.ISBN 978-0-521-86571-5</nowiki> =
= McCullochMinski, WarrenMarvin; Papert, Seymour. Pitts1969, Walter. 1943. "A Logical Calculus of Ideas Immanent in Nervous Activity"1972. ''Bulletin of Mathematical BiophysicsPerceptrons: An Introduction to Computational Geometry'' 5(4): 115–133<nowiki>, The MIT Press, Cambridge MA, ISBN 0-262-63022-2. doi: 10.1007</BF02478259. =nowiki>
= ManningMinski, Christopher; Schütze, HinrichMarvin. 1980. 1999“Decentralized minds”. ''Foundations of Statistical Natural Language ProcessingBehavioral and brain sciences''<nowiki>3(3) 439-440. The MIT Pressdoi:  10. ISBN 978-0-262-13360-91017/S0140525X00005914.</nowiki> =
= Manning, Christopher; Raghavan, Prabhakar; Schütze, Hinrich. 2008NASA 2011. ''Introduction to Information RetrievalCassini-Huygens quick facts''<nowiki>. Cambridge University Presshttp://saturn. ISBN 978jpl.nasa.gov/mission/quickfacts/. Consultado 2011-008-521-86571-520.</nowiki> =
= MinskiNilsson, Marvin; Papert, SeymourNils. 1969, 19721998. ''PerceptronsArtificial Intelligence: An Introduction to Computational GeometryA New Synthesis''<nowiki>, The MIT Press, Cambridge MA, ISBN 0. Morgan Kaufmann. ISBN 978-1-26255860-63022467-24.</nowiki> =
= MinskiNorris, MarvinJames R. 1980. “Decentralized minds”1998. ''Behavioral and brain sciencesMarkov chains'' 3(3) 439-440. doi:  10.1017/S0140525X00005914Cambridge University Press. =
= NASA 2011Penrose, Roger. 2004. ''Cassini-Huygens quick factsThe  Road to Reality''<nowiki>. http://saturn.jpl.nasa.gov/mission/quickfacts/Random House. Consultado 2011-08-20Londres.</nowiki> =
= NilssonPolaino, NilsAquilino. 19982014. “¿Ha demostrado la neurociencia que la mente no es más que un subproducto de la materia?”. En ''Artificial Intelligence: A New Synthesis60 preguntas sobre ciencia y fe respondidas por 26 profesores de universidad''<nowiki>, ed. Morgan KaufmannSoler Gil, Francisco José, y Alfonseca, Manuel. ISBN 978-1-55860-467-4Stella Maris, Barcelona.</nowiki> =
= NorrisPopper, James RKarl. 19981962. ''Markov chainsLa lógica de la investigación científica'', Tecnos. Cambridge University Press. =
= PenrosePowers, RogerDavid; Turk, Christopher. 20041989. ''The  Road to RealityMachine Learning of Natural Language''<nowiki>. Random HouseSpringer-Verlag. LondresISBN 978-0-387-19557-5. =</nowiki>
= PolainoRosenblatt, AquilinoF. 20141958. “¿Ha demostrado la neurociencia que la mente no es más que un subproducto de la materia?”"The Perceptron: A probabilistic model for information storage and organization in the brain". En ''60 preguntas sobre ciencia y fe respondidas por 26 profesores de universidadPsychological Review'', ed65 (6): 386–408. Soler Gil, Francisco José, y Alfonseca, Manueldoi: 10. Stella Maris, Barcelona1037/h0042519. =
= PopperRussell, KarlStuart J. 1962; Norvig, Peter. 2003. ''La lógica de la investigación científicaArtificial Intelligence: a modern approach''. Prentice Hall, TecnosUpper Saddle River. ISBN: 0-13-790395-2. =
= PowersSchaeffer, DavidJ.; Burch, N.; Bjornsson, Y.; Kishimoto, A.; Muller, M.; TurkLake, ChristopherR. 1989; Lu, P. ; Sutphen, S. 2007. “Checkers Is Solved” ''Machine Learning of Natural LanguageScience''<nowiki>. Springer-Verlag. ISBN 978-0-387-19557-5, 317(5844):1518–1522.</nowiki> =
= RosenblattSearle, FJohn R. 19581980. "The Perceptron: A probabilistic model for information storage “Minds, brains and organization in the brain"programs”. ''Psychological ReviewBehavioral and mind sciences'' 65 3 (63): 386–408. 417–457, doi: 10.10371017/h0042519S0140525X00005756. =
= RussellSearle, Stuart JJohn R.; Norvig, Peter. 20031999. ''Artificial Intelligence: a modern approachMind, language and society''. Prentice Hall<nowiki>, Basic Books, Upper Saddle RiverNew York. ISBN: 0-13465-79039504521-29. =</nowiki>
= Schaeffer, J.; Burch, N.; Bjornsson, Y.; Kishimoto, A.; Muller, M.; LakeSearle, John R.; Lu, P.; Sutphen, S. 20072004. “Checkers Is Solved” ''ScienceMind. A Brief Introduction'', 317(5844):1518–1522. =Oxford University Press. Oxford.
= SearleSiddique, John R. 1980Adeli; Nazmul, Hojjat. “Minds, brains and programs”2013. ''Behavioral Computational Intelligence: Synergies of Fuzzy Logic, Neural Networks and mind sciencesEvolutionary Computing'' 3 (3): 417–457, doi: 10.1017/S0140525X00005756John Wiley & Sons. =
= SearleSoler Gil, John RFrancisco José. 19992013. ''Mind, language and societyMitología materialista de la ciencia''<nowiki>, Basic Books. Ediciones Encuentro, New York. ISBN 0-465-04521-9Madrid.</nowiki> =
= SearleSutskever, John RIlya; Vinyals, Oriol; Le, Quoc V. 20042014. ''Mind. A Brief IntroductionSequence to Sequence Learning with Neural Networks''. Oxford University PressarXiv:1409. Oxford3215. =
= SiddiqueTesauro, Adeli; Nazmul, HojjatGerald (1989). 2013“Neurogammon Wins Computer Olympiad”. ''Computational Intelligence: Synergies of Fuzzy Logic, Neural Networks and Evolutionary ComputingComputation''1 (3): 321–323. doi: 10.1162/neco.1989.1.3. John Wiley & Sons321. = 
= Soler GilTuring, Francisco JoséAlan. 20131937. “On Computable Numbers With an Application to the Entscheidungsproblem”. ''Mitología materialista de la cienciaProceedings of the London Mathematical Society'', Series 2, Vol. Ediciones Encuentro42, Madrid230–265, doi: 10.1112/plms/s2-42.1.230. =
= SutskeverTuring, Ilya; Vinyals, Oriol; Le, Quoc VAlan. 20141950. “Computing Machinery and Intelligence” ''Sequence to Sequence Learning with Neural NetworksMind''LIX (236): 433–460. arXivdoi:140910.1093/mind/LIX.236.3215433. =
= Tesauro, Gerald (1989)United Nations. “Neurogammon Wins Computer Olympiad”2015. ''Neural ComputationRevision of World Population Prospects'' 1 (3): 321–323<nowiki>. doi http: 10.1162/neco/esa.1989un.1org/wpp/Demographic-Profiles/index.3shtm.321. =</nowiki>
= TuringWeizenbaum, AlanJoseph. 19371966. “On Computable Numbers With an Application to "ELIZA—A computer program for the Entscheidungsproblem”study of natural language communication between man and machine". ''Proceedings Communications of the London Mathematical Societythe ACM'', Series 2, Vol.42, 230–2659 (1): 36–45, doi: 10.11121145/plms/s2-42.1365153.230365168. =
= TuringWiener, AlanNorbert. 19501948, 1961. “Computing Machinery and Intelligence” ''MindCybernetics'' LIX (236): 433–460. doi:10.1093/mind/LIX.236.433, The MIT Press, Cambridge Mass. =
= United Nations. 2015. ''Revision of World Population Prospects''<nowiki>Wolfram, Stephen. 2012. “Announcing Wolfram|Alpha Pro”. Wolfram|Alpha Blog, February 8, 2012.  httphttp://esablog.unwolframalpha.orgcom/2012/wpp02/Demographic08/announcing-Profileswolframalpha-pro/index.shtm.</nowiki> =
= Weizenbaum, Joseph. 1966. "ELIZA—A computer program for the study of natural language communication between man and machine". ''Communications of the ACM'' 9 (1): 36–45, doi: 10.1145/365153.365168. =
{{Citar|url = Wiener, Norberthttp://dia.austral.edu. 1948ar/Inteligencia_artificial|cabecera = Alfonseca, 1961Manuel. ''Cybernetics'', The MIT Press, Cambridge Mass2016. ="Inteligencia artificial"}}
= <nowiki>Wolfram, Stephen. 2012. “Announcing Wolfram|Alpha Pro”. Wolfram|Alpha Blog, February 8, 2012. http://blog.wolframalpha.com/2012/02/08/announcing-wolframalpha-pro/</nowiki> =Derechos de autor==
=<nowiki/>=DERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E. Vanney - 2016.
Autores, Editores, Burócratas, Administradores
2180
ediciones

Menú de navegación