Abrir menú principal

DIA β

Cambios

Concepciones semánticas de la información

30 648 bytes añadidos, 14:25 7 jun 2016
sin resumen de edición
El ''enfoque sistémico,'' desarrollado especialmente en lógica de situación (Barwise y Perry 1983, Israel y Perry 1990, Devlin 1991; Barwise y Seligman 1997 proveen un fundamento para una teoría general del flujo de información), también define a la información en términos de espacio de estados y consistencia. Sin embargo, es ontológicamente menos demandante que el enfoque modal, ya que asume un dominio de aplicación claramente limitado. Este enfoque también es compatible con el enfoque probabilista de Dretske, aunque no requiere una medida de la probabilidad sobre los conjuntos de estados. El contenido informacional de ''p'' no está determinado ''a priori'' mediante un cálculo de estados posibles permitidos por un lenguaje representacional, sino que está determinado en términos del contenido factual que ''p'' lleva con respecto a una situación determinada. La información rastrea las transiciones posibles en el espacio de estados de un sistema bajo condiciones normales. Tanto Dretske como los teóricos de situación requieren alguna presencia de información que ya sea inmanente al ambiente (''información ambiental''), como regularidades nómicas o restricciones. Este “externalismo semántico” puede ser controversial.
 
El ''enfoque inferencial'' define información en términos de espacio de vinculación: la información depende de las inferencias válidas relativas a estados epistémicos o a una teoría de agentes de información.
 
Para cada uno de los enfoques extensionalistas previos, puede darse una interpretación intencional al considerar el espacio relevante como un espacio doxástico, en el cual la información es vista como una reducción del grado de incerteza personal, dado un estado de conocimiento del informado. Wittgenstein estuvo de acuerdo con esta distinción en sus ''Comentarios sobre la Filosofía de la Psicología:''
 
La idea central es que hay un juego de lenguaje en el cual produzco información de manera automática, información que puede ser completamente tratada por otras personas como ellas tratan a la información no automática –sólo que aquí no habrá ‘mentira’ alguna–, información que yo mismo puedo recibir de una tercera persona. La oración ‘automática’, reporte, etc., puede también llamarse un ‘oráculo’… Pero, por supuesto, esto significa que el oráculo no debe disponer de las palabras ‘yo creo…’. (Wittgenstein 1980, §817).
 
Al usar la noción de juego de lenguaje, Wittgenstein parece tener en mente la noción de juego de información, que ya hemos encontrado anteriormente.
 
 
===La paradoja de Bar-Hillel-Carnap===
 
Los enfoques extensionalistas, delineados en la sección previa, pueden verse afectados por lo que hemos llamado, un poco hiperbólicamente, la ''Paradoja de Bar-Hillel-Carnap'', en la medida en que ellos suscriben al Principio de Relación Inversa (Floridi 2004b).
 
En resumen, hemos visto que, siguiendo al PRI, cuanto menor sea la probabilidad de'' p'', mayor es la cantidad de información semántica que'' p'' transporta. Esto explica por qué la mayoría de los filósofos acuerda en que gran parte de las tautologías no llevan información en absoluto, ya que su probabilidad o posibilidad es 1; pero también ha conducido a algunos a considerar que las contradicciones –las cuales describen estados imposibles o con probabilidad 0– son la clase de mensajes que contienen una gran cantidad de información semántica. Esta es una pendiente resbaladiza ya que al volver una oración cada vez menos y menos probable, se está aumentando gradualmente su contenido informacional pero, en un punto determinado, la oración “implosiona” (en la cita que aparece más adelante, se vuelve “demasiado informativa para ser verdadera”).
 
Bar-Hillel y Carnap fueron unos de los primeros en explicitar esta desigualdad anti-intuitiva'' prima facie''. Nótese cómo la cuidadosa redacción que se utiliza traiciona el deseo de neutralizar el problema:
 
'''La Paradoja de Bar-Hillel-Carnap (PBC):'''
 
Al comienzo, tal vez pueda parecer extraño que una oración que se contradice a sí misma y que, por lo tanto, ningún receptor ideal aceptaría, sea considerada como portadora de la información más inclusiva. Sin embargo, debería enfatizarse que aquí la información semántica no está implicando verdad y, por lo tanto, una oración falsa que resulta decir mucho es altamente informativa en nuestro sentido. Si la información que transporta es verdadera o falsa, científicamente valiosa o no, etc., no nos concierne. Una oración que se contradice a sí misma afirma demasiado; es demasiado informativa para ser verdadera (Bar-Hillel y Carnap 1953, 229).
 
Desde su formulación, la PBC fue reconocida como una desafortunada consecuencia de cualquier ''teoría cuantitativa de la información débilmente semántica, ''aunque es perfectamente correcta y lógicamente inevitable. Es “débilmente” semántica porque los valores de verdad no juegan ningún papel en ella. Como consecuencia, el problema ha sido, a menudo, o bien ignorado o bien tolerado (Bar-Hillel y Carnap 1953), como el precio que hay que pagar por un enfoque que de otra manera sería valioso. Sin embargo, se han hecho algunos intentos para delimitar sus consecuencias anti-intuitivas, especialmente, en Teoría de Sistemas de Información (Winder 1997) –donde la consistencia es una restricción esencial que debe ser satisfecha para que la base de datos preserve la integridad de los datos– y en Teoría de la Decisión, donde la información inconsistente es obviamente inútil para quien toma decisiones.
 
En estos casos, en lugar de asignarles la máxima cantidad de información semántica, se han sugerido tres estrategias, siempre que no haya modelos posibles que satisfagan un enunciado o una teoría:
 
<!--[if !supportLists]-->1.    <!--[endif]-->Asignar a todos los casos inconsistentes el mismo valor: información infinita (Lozinskii 1994). Esto está en consonancia con un enfoque económico, el cual define ''x'' como imposible si y sólo si ''x'' tiene un precio infinito;
 
<!--[if !supportLists]-->2.     <!--[endif]-->Eliminar todos los casos inconsistentes ''a priori'', como resultados imposibles en toma de decisión (Jeffrey 1990). Esto está en línea con el enfoque sintáctico desarrollado por la TMC;
 
<!--[if !supportLists]-->3.      <!--[endif]-->Asignar a todos los casos inconsistentes el mismo valor: información cero. (Mingers 1997, Aisbett y Gibbon 1999).
 
El último enfoque es cercano al'' enfoque fuertemente semántico,'' el cual abordaremos a continuación.
 
 
===El enfoque fuertemente semántico de la información===
 
La hipótesis general es que la PBC señala que algo ha salido esencialmente mal con la teoría de la información semánticamente débil. Esta hipótesis se fundamenta en un principio semántico que es muy débil, a saber, que los valores de verdad son independientes de la información semántica. Un enfoque semánticamente más fuerte, según el cual la información encapsula la verdad, es capaz de eludir la paradoja y alinearse con la concepción común de qué es lo que en general cuenta como información factual (como hemos visto en la sección 3.2.3). La TMC ya ofrece algunas seguridades iniciales: identifica la cantidad de información asociada a, o generada por, la aparición de una señal (un evento o la realización de un estado de cosas) con la eliminación de posibilidades (reducción de la incerteza) representada por esa señal (evento o estado de cosas). En la TMC no ocurre ninguna desigualdad anti-intuitiva comparable a la PBC, y la línea del argumento es que, como en el caso de la TMC, una teoría de la información fuertemente semántica, basada en valores aléthicos y de discrepancia –en lugar de probabilidades–, puede también evadir exitosamente la PBC. (Floridi 2004b; Floridi 2005, ver Bremer y Cohnitz 2004, cap. 2 para un resumen; Sequoiah-Grayson 2007 defiende la teoría de la información semánticamente fuerte contra la reciente objeción de Fetzer 2004 y Dodig-Crnkovic 2005).
 
Antes de describir este enfoque, nótese que algunos autores han propuesto un enfoque aléthico diferente, que utiliza verosimilitud para explicar la noción de información semántica (Frické 1997; Cevolani 2011, 2014; D'Alfonso 2011). Normalmente, estos enfoques buscan identificar la información factual con la similitud con respeto a la verdad completa acerca de todas las cuestiones empíricas o acerca de algunos dominios restringidos relevantes de interés factual. También estos enfoques evitan la PBC y tampoco utilizan probabilidades. De cualquier manera, la verosimilitud es diferente de la verdad misma en la medida en que un portador de verdad puede ser similar a la verdad sin ser realmente verdadero, ''i.e''. cuando es falso, de manera que los enfoques de la información en términos de verosimilitud permiten que puntos de vistas falsos o teorías falsas puedan tener información. (De hecho, en este enfoque, las afirmaciones falsas pueden a veces portar más información que sus negaciones verdaderas; Frické 1997).
 
Por el contrario, en la concepción de Floridi, la información semántico-factual está definida, en términos de espacio de datos, como datos bien formados, significativos y veraces. Esto restringe el enfoque probabilístico que se introdujo anteriormente, ya que primero requiere que el contenido sea calificado como veraz. Una vez que el contenido es calificado de esa manera, la cantidad de información semántica en ''p'' se calcula en términos de la distancia de ''p'' respecto de la situación/recurso ''w'' que se supone que ''p'' modela. La distancia total es equivalente a un'' p'' verdadero en todos los casos (en todos los mundos posibles o con probabilidad igual a 1), incluyendo'' w'' y, por lo tanto, es mínimamente informativo. En cambio, la proximidad máxima es equivalente al modelado preciso de ''w'', en el nivel acordado de abstracción.
 
Supongamos que vendrán exactamente tres invitados a cenar esta noche. Esta es nuestra situación ''w''. Imaginemos que nos dicen que:
 
(T) Puede venir o no venir algún invitado a cenar esta noche; o
 
(V) Vendrán algunos invitados esta noche; o
 
(P) Vendrán tres invitados esta noche.
 
El ''grado de informatividad'' de (T) es cero porque se aplica tanto a ''w'' como a ¬''w, ''ya que es una tautología. (V) funciona mejor y (P) tiene el grado máximo de informatividad porque, como una verdad totalmente exacta, precisa y contingente, apunta directamente a su objetivo ''w''. Generalizando, cuanto más distante sea una información semántica-factual σ de su objetivo ''w, ''mayor es el número de situaciones a las cuales se aplica, y menor se vuelve su grado de informatividad. Una tautología es una verdad σ que está a mayor “distancia” del mundo.
 
Vamos a utilizar ahora ‘θ’ para referirnos a la distancia entre una verdad σ y ''w''. Si utilizamos el lenguaje más preciso de la lógica de situación, θ indica el grado de respaldo que ''w'' ofrece a σ. Podemos ahora mapear los valores de θ dado un σ específico y un correspondiente objetivo ''w'' sobre el eje ''x'' de un sistema de coordenadas cartesianas. En nuestro ejemplo, sabemos que θ(T) = 1 y θ(P) = 0. Por motivos de simplicidad, asumimos que θ(V) = 0,25. Ahora necesitamos una fórmula para calcular el ''grado de informatividad'' ι de σ en relación a θ(''s''). Se puede mostrar que la solución más elegante es proporcionada por el complemento del valor de θ(σ) al cuadrado, es decir, por ''y'' = 1 − ''x''<sup>2</sup>. Utilizando los símbolos recién presentados, tenemos:
 
[13]     ι(σ) = 1 − θ(σ)<sup>2</sup>
 
La Figura 5 muestra el gráfico generado por la ecuación [13], cuando también incluimos valores negativos de distancia para σ; como se ve, θ recorre los valores desde −1 (= contradicción) a 1 (= tautología):
 
[[File:image007csi.png|center]]
 
<center>'''Figura 5: Grados de informatividad'''</center>
 
Si σ tiene un alto grado de informatividad ι (donde el valor de θ es muy bajo), queremos poder decir que contiene una gran cantidad de información semántica y, viceversa, que cuanto más bajo sea el grado de informatividad de σ, menor debería ser la cantidad de información semántica transportada por σ. Para calcular la cantidad de información semántica contenida en σ relativa a ι(σ), necesitamos calcular el área delimitada por la ecuación [13], es decir, definir la integral de la función ι(σ) sobre el intervalo [0, 1]. Como sabemos, la cantidad máxima de información semántica (llamémosla α) es transportada por (P), cuyo θ = 0. Esto es equivalente a la totalidad del área delimitada por la curva. Generalizando para σ, obtenemos:
 
[14]     [[File:image008csi.png]]
 
La Figura 6 muestra el gráfico generado por la ecuación [14]. El área sombreada es la cantidad máxima de información semántica α transportada por σ.
 
<center>[[File:image010csi.jpg]]</center>
 
<center>'''Figura 6: Máxima cantidad de información semántica α transportada por σ'''</center>
 
 
Consideremos ahora (V), “vendrán algunos invitados esta noche”. (V) puede analizarse como una cadena (razonablemente finita) de disyunciones, es decir (V) = [“vendrán algunos invitados esta noche” o “vendrán dos invitados esta noche” o “vendrán ''n'' invitados esta noche”], donde ''n'' es un límite razonable a considerar (las cosas son más complejas que esto, pero aquí sólo necesitamos entender el principio general). Sólo una de las descripciones en (V) será totalmente exacta. Esto significa que (V) también contiene alguna (tal vez mucha) información que es simplemente redundante o irrelevante. Nos referiremos a este “residuo informacional” en (V) como información vacía en (V). La cantidad de información vacía (llamémosla β) en (V) es también una función de la distancia θ de (V) desde ''w'', o en términos más generales:
 
[15] [[File:image011csi.png]]
 
Ya que θ(V) = 0,25, tenemos que
 
[16]     [[File:image013csi.png]]
 
La Figura 7 muestra el gráfico generado por la ecuación [16]
 
<center>[[File:image015csi.jpg]]</center>
 
<center>'''Figura 7: Cantidad de información γ transportada por σ'''</center>
 
 
El área sombreada es la cantidad de información vacía β en (V). Claramente, la cantidad de información semántica en (V) es, sencillamente, la diferencia entre α (la máxima cantidad de información que, en principio, puede portar σ) y β (la cantidad de información vacía que actualmente porta σ), es decir, el área clara del gráfico de la Figura 7. De modo más general, y expresado en bits, la cantidad de información semántica γ en σ es:
 
[17]     γ(σ) = log(α − β)
 
Nótese la similitud entre [14] y [15]: cuando θ(σ) = 1, es decir, cuando la distancia entre σ y ''w'' es máxima, entonces α = β y γ(σ) = 0. Esto es lo que sucede cuando consideramos a (T). (T) está a tanta distancia de ''w'' que sólo contiene información vacía. En otras palabras, (T) contiene tanta información vacía como información relevante contiene (P).
 
 
==Conclusión==
 
Las teorías filosóficas de la información semántica han contribuido recientemente a la formación de una nueva área de investigación en sí misma, la filosofía de la información (Adams 2003, Floridi 2011). Los dos volúmenes especiales publicados de ''Mentes y Máquinas'' sobre filosofía de la información (Floridi 2003c) ofrecen un panorama del alcance y la profundidad del trabajo actual en el área. La información parece haberse convertido en la clave conceptual para destrabar muchos problemas filosóficos. “El bien más valioso del que tengo conocimiento es la información”, declara con valentía Gordon Gekko en ''Wall Street ''de Oliver Stone (1987). Eufranor probablemente hubiera coincidido. El problema es que todavía tenemos que lograr un acuerdo acerca de qué es exactamente la información.
 
 
== Bibliografía ==
 
Adams, F. 2003. “The Informational Turn in Philosophy”. <em>Minds and Machines</em> 13(4): 471–501.
 
Adriaans, P. y J. van Benthem, eds. 2008. <em>Handbook of Philosophy of Information</em>. Amsterdam - Oxford: Elsevier.
 
Allo, P., ed. 2010. <em>Putting Information First: Luciano Floridi and the Philosophy of Information </em>(volumen especial de <em>Metaphilosophy</em>. Volumen 41. No. 3).
 
Armstrong, D. M. 1968. <em>A Materialist Theory of the Mind</em>. London: Routledge & Kegan Paul.
 
Armstrong, D. M. 1993. <em>A Materialist Theory of the Mind</em>. 2º edición. London: Routledge.
 
Badino, M. 2004. “An Application of Information Theory to the Problem of the Scientific Experiment”. <em>Synthese</em> 140: 355–389.
 
Bar-Hillel, Y. 1964. <em>Language and Information: Selected Essays on Their Theory and Application</em>. Reading, Mass - London: Addison-Wesley.
 
Bar-Hillel, Y. y R. Carnap. 1953. “An Outline of a Theory of Semantic Information”. Repr. en <em>Language and Information: Selected Essays on Their Theory and Application, por Bar-Hillel, Y. (1964), 221-274</em>. Reading, Mass - London: Addison-Wesley.
 
Barwise, J. y J. Seligman. 1997. <em>Information Flow: The Logic of Distributed Systems</em>. Cambridge: Cambridge University Press.
 
Bateson, G. 1973. <em>Steps to an Ecology of Mind</em>. Frogmore - St. Albans: Paladin.
 
Berkeley, G. 1732. <em>Alciphron: Or the Minute Philosopher</em>. Edinburgh: Thomas Nelson 1948–57.
 
Braman, S. 1989. “Defining Information”. <em>Telecommunications Policy</em> 13: 233–242.
 
Bremer, M. y D. Cohnitz. 2004. <em>Information and Information Flow – an Introduction</em>. Frankfurt - Lancaster: Ontos Verlag.
 
Bremer, M. E. 2003. “Do Logical Truths Carry Information?”. <em>Minds and Machines</em> 13(4): 567–575.
 
Cevolani, G. 2011. “Verisimilitude and strongly semantic information”. <em>Ethics & Politics</em> XIII(2): 159–179.
 
Cevolani, G. 2014. “Strongly Semantic Information as Information About the Truth”. En <em>Recent Trends in Philosophical Logic</em>, (Trends in Logic, Volumen 41), editado por R. Ciuni, H. Wansing y C. Willkommen, 59-74. Dordrecht: Springer.
 
Chaitin, G. J. 1987. <em>Algorithmic Information Theory</em>. Cambridge: Cambridge University Press.
 
Chalmers, D. J. 1996. <em>The Conscious Mind: In Search of a Fundamental Theory</em>. New York: Oxford University Press.
 
Cherry, C. 1978. <em>On Human Communication: A Review, a Survey, and a Criticism</em>. 3° edición. Cambridge, Mass. - London: MIT Press.
 
Colburn, T. R. 2000. <em>Philosophy and Computer Science</em>. Armonk, NY: M.E. Sharpe.
 
Cover, T. M. y J. A. Thomas. 1991. <em>Elements of Information Theory</em>. New York - Chichester: Wiley.
 
Craver, C. F. 2004. “A Field Guide to Levels”. <em>Proceedings and Addresses of the American Philosophical Association</em> 77(3): 121 [versión preliminar disponible online].
 
D'Alfonso, S. 2011. “On Quantifying Semantic Information”. <em>Information</em> 2(1): 61–101.
 
Debons, A. y W. J. Cameron, eds. 1975. <em>Perspectives in Information Science: Proceedings of the Nato Advanced Study Institute on Perspectives in Information Science, Held in Aberystwyth, Wales, Uk, August 13–24, 1973</em>. Leiden: Noordhoff.
 
Dennett, D. C. 1969. <em>Content and Consciousness</em>. London: Routledge & Kegan Paul.
 
Dennett, D. C. 1971. “Intentional Systems”. <em>The Journal of Philosophy</em> (68): 87–106.
 
Dennett, D. C. 1986. <em>Content and Consciousness</em>. 2nd edition. London: Routledge & Kegan Paul.
 
Deutsch, D. 1985. “Quantum Theory, the Church-Turing Principle and the Universal Quantum Computer”. <em>Proceedings of the Royal Society</em> 400: 97–117.
 
Deutsch, D. 1997. <em>The Fabric of Reality</em>. London: Penguin.
 
Devlin, K. J. 1991. <em>Logic and Information</em>. Cambridge: Cambridge University Press.
 
Di Vincenzo, D. P. y D. Loss. 1998. “Quantum Information Is Physical”. <em>Superlattices and Microstructures</em> (volumen especial en ocasión del cumpleaños número 70 de Rolf Landauer) 23: 419–432.
 
Dodig-Crnkovic, G. 2005. “System Modeling and Information Semantics”. En <em>Proceedings of the Fifth Promote IT Conference</em>, Borlänge, Suecia, editado por Janis Bubenko, Owen Eriksson, Hans Fernlund y Mikael Lind. Studentlitteratur: Lund.
 
Dretske, F. I. 1981. <em>Knowledge and the Flow of Information</em>. Oxford: Blackwell. Reimpreso: Stanford, CA: CSLI Publications. 1999.
 
Dunn, J. M. 2001. “The Concept of Information and the Development of Non-Classical Logics”. En <em>Non-Classical Approaches in the Transition from Traditional to Modern Logic</em>, editado por W. Stelzner, 423–448. Berlin - New York: de Gruyter.
 
Fetzer, J. H. 2004. “Information: Does It Have to Be True?”. <em>Minds and Machines</em> 14(2): 223–229.
 
Floridi, L. 1999. <em>Philosophy and Computing: An Introduction</em>. London - New York: Routledge.
 
Floridi, L. 2002. “What Is the Philosophy of Information?”. <em>Metaphilosophy</em> 33(1–2): 123–145.
 
Floridi, L. 2003a. “Information”. En <em>The Blackwell Guide to the Philosophy of Computing and Information</em>, editado por L. Floridi, 40–61. Oxford - New York: Blackwell.
 
Floridi, L. 2003b. “Two Approaches to the Philosophy of Information”. <em>Minds and Machines</em> 13(4): 459–469.
 
Floridi, L., ed. 2003c. <em>Minds and Machines</em> (volumen especial: Philosophy of Information). Volume 13.
 
Floridi, L. 2004a. “Open Problems in the Philosophy of Information”. <em>Metaphilosophy</em> 35(4): 554–582.
 
Floridi, L. 2004b. “Outline of a Theory of Strongly Semantic Information”. <em>Minds and Machines</em> 14(2): 197–222.
 
Floridi, L. 2005. “Is Information Meaningful Data?”. <em>Philosophy and Phenomenological Research</em> 70(2): 351–370.
 
Floridi, L. 2008. “The Method of Levels of Abstraction”. <em>Minds and Machines</em> 18(3): 303–329.
 
Floridi, L. 2010. <em>Information – A Very Short Introduction</em>. Oxford: Oxford University Press.
 
Floridi, L. 2011. <em>The Philosophy of Information</em>. Oxford: Oxford University Press.
 
Fox, C. J. 1983. <em>Information and Misinformation: An Investigation of the Notions of Information, Misinformation, Informing, and Misinforming</em>. Westport, CT: Greenwood Press.
 
Franklin, S. 1995. <em>Artificial Minds</em>. Cambridge, Mass.: MIT Press.
 
Frické, M. 1997. “Information using likeness measures”. <em>Journal of the American Society for Information Science</em> 48(10): 882–892.
 
Frieden, B. R. 1998. <em>Physics from Fisher Information: A Unification</em>. Cambridge: Cambridge University Press.
 
Frieden, B. R. 2004. <em>Science from Fisher Information: A Unification</em>. 2nd ed. Cambridge: Cambridge University Press.
 
Golan, A. 2002. “Information and Entropy Econometrics – Editor's View”. <em>Journal of Econometrics</em> 107(1–2): 1–15.
 
Graham, G. 1999. <em>The Internet: A Philosophical Inquiry</em>. London: Routledge.
 
Grice, H. P. 1989. <em>Studies in the Way of Words</em>. Cambridge, Mass.: Harvard University Press.
 
Harms, W. F. 1998. “The Use of Information Theory in Epistemology”. <em>Philosophy of Science</em> 65(3): 472–501.
 
Heil, J. 2003. “Levels of Reality”. <em>Ratio</em> 16(3): 205–221.
 
Hintikka, J. y P. Suppes, eds. 1970. <em>Information and Inference</em>. Dordrecht: D. Reidel.
 
Hoare, C. A. R. y H. Jifeng. 1998. <em>Unifying Theories of Programming</em>. London: Prentice Hall.
 
Hume, D., 1987, <em>Essays, Moral, Political, and Literary</em>, Indianapolis: Liberty Classics. Editado y con prefacio, notas y glosario de Eugene F. Miller; con un aparato crítico desde la edición de 1889 de T.H. Green y T.H. Grose. Basado en la edición de 1777, originalmente publicada como v. 1 of Essays and treatises on several subjects.
 
Jones, D. S. 1979. <em>Elementary Information Theory</em>. Oxford: Clarendon Press.
 
Kemeny, J. 1953. “A Logical Measure Function”. <em>Journal of Symbolic Logic</em> 18: 289–308.
 
Landauer, R. 1987. “Computation: A Fundamental Physical View”. <em>Physica Scripta</em> 35: 88–95.
 
Landauer, R. 1991. “Information Is Physical”. <em>Physics Today</em> 44: 23–29.
 
Landauer, R. 1996. “The Physical Nature of Information”. <em>Physics Letters A</em> 217: 188.
 
Landauer, R. y Bennett, C. H. 1985. “The Fundamental Physical Limits of Computation”. <em>Scientific American</em> July: 48–56.
 
Larson, A. G. y A. Debons, eds. 1983. <em>Information Science in Action: System Design. Proceedings of the Nato Advanced Study Institute on Information Science, Crete, Greece, August 1–11, 1978</em>. The Hague: M. Nijhoff.
 
Losee, R. M. 1997. “A Discipline Independent Definition of Information”. <em>Journal of the American Society for Information Science</em> 48(3): 254–269.
 
Mabon, P. C. 1975. <em>Mission Communications: The Story of Bell Laboratories</em>. Murray Hill, N.J.: Bell Telephone Laboratories.
 
Machlup, F. y U. Mansfield, eds. 1983. <em>The Study of Information: Interdisciplinary Messages</em>. New York: Wiley.
 
MacKay, D. M. 1969. <em>Information, Mechanism and Meaning</em>. Cambridge: MIT Press.
 
Marr, D. 1982. <em>Vision: A Computational Investigation into the Human Representation and Processing of Visual Information</em>. San Francisco: W.H. Freeman.
 
Mingers, J. 1997. “The Nature of Information and Its Relationship to Meaning”. En <em>Philosophical Aspects of Information Systems</em>, editado por R. L. Winder <em>et al</em>, 73–84. London: Taylor and Francis.
 
Nauta, D. 1972. <em>The Meaning of Information</em>. The Hague: Mouton.
 
Newell, A. 1982. “The Knowledge Level”. <em>Artificial Intelligence</em> 18: 87–127.
 
Newell, A. y H. A. Simon. 1976. “Computer Science as Empirical Inquiry: Symbols and Search”. <em>Communications of the ACM</em> 19: 113–126.
 
Pierce, J. R. 1980. <em>An Introduction to Information Theory: Symbols, Signals & Noise</em>. 2nd edition. New York: Dover Publications.
 
Poli, R. 2001. “The Basic Problem of the Theory of Levels of Reality”. <em>Axiomathes</em> 12: 261–283.
 
Popper, K. R. 1935. <em>Logik Der Forschung: Zur Erkenntnistheorie Der Modernen Naturwissenschaft</em>. Wien: J. Springer. Traducción al inglés: <em>The Logic of Scientific Discovery</em>. London: Hutchinson. 1959.
 
Quine, W.V.O. 1970. <em>Philosophy of Logic</em>. Englewood Cliffs, NJ: Prentice Hall.
 
Roever, W. P. d., K. Engelhardt y K.-H. Buth. 1998. <em>Data Refinement: Model-Oriented Proof Methods and Their Comparison</em>. Cambridge: Cambridge University Press.
 
Sayre, K. M. 1976. <em>Cybernetics and the Philosophy of Mind</em>. London: Routledge & Kegan Paul.
 
Scarantino, A. y G. Piccinini. 2010. “Information Without Truth”. <em>Metaphilosophy</em> 41(3): 313–330.
 
Sequoiah-Grayson, S. 2007. “The Metaphilosophy of Information”. <em>Minds and Machines</em> 17: 331–344.
 
Schaffer, J. 2003. “Is There a Fundamental Level?”. <em>Noûs</em> 37(3): 498–517.
 
Shannon, C. E. 1993. <em>Collected Papers</em>, editado por N. J. A. Sloane y A. D. Wyner, New York: IEEE Press.
 
Shannon, C. E. y Weaver, W. 1949. <em>The Mathematical Theory of Communication</em>. Urbana: University of Illinois Press. Prólogo por Richard E. Blahut y Bruce Hajek. Reimpreso en 1998.
 
Simon, H. A. 1969. <em>The Sciences of the Artificial</em>. 1º edición. Cambridge, Mass. - London: MIT Press.
 
Simon, H. A. 1996. <em>The Sciences of the Artificial</em>. 3º edición. Cambridge, Mass. - London: MIT Press.
 
Sloman, A. 1978. <em>The Computer Revolution in Philosophy: Philosophy, Science and Models of Mind</em>. Hassocks: Harvester.
 
Smokler, H. 1966. “Informational Content: A Problem of Definition”. <em>The Journal of Philosophy</em> 63(8): 201–211.
 
Steane, A. M. 1998. “Quantum Computing”. <em>Reports on Progress in Physics</em> 61: 117–173.
 
Thagard, P. R. 1990. “Comment: Concepts of Information”, en Hanson [1990].
 
Weaver, W. 1949. “The Mathematics of Communication”. <em>Scientific American</em> 181(1): 11–15.
 
Wheeler, J. A. 1990. “Information, Physics, Quantum: The Search for Links”, en <em>Complexity, Entropy, and the Physics of Information</em>, editado por W. H. Zureck, Redwood City, CA: Addison Wesley.
 
Wiener, N. 1954. <em>The Human Use of Human Beings: Cybernetics and Society</em>. Boston: Houghton Mifflin, re-editado en 1989 con una nueva introducción de Steve Heims. London: Free Association.
 
Wiener, N. 1961. <em>Cybernetics or Control and Communication in the Animal and the Machine</em>. 2º edición. Cambridge, Mass.: MIT Press.
 
Wittgenstein, L. 1960. <em>Preliminary Studies for the Philosophical Investigations: Generally Known as the Blue and Brown Books</em>. 2º edición. Oxford: Basil Blackwell.
 
Wittgenstein, L. 1980. <em>Remarks on the Philosophy of Psychology</em>, 2 volúmenes. Chicago: University of Chicago Press and Oxford: Basil Blackwell, editado por G. E. M. Anscombe y G. H. von Wright. Traducido por G. E. M. Anscombe; vol. 2 editado por G.H. von Wright and H. Nyman; traducido por C.G. Luckhardt y A.E. Aue.
 
Wittgenstein, L. 1981. <em>Zettel</em>, 2nd edition, editado por G.E.M, Anscombe and G.H. von Wright; traducido por G.E.M. Anscombe. Oxford: Blackwell.
 
Wittgenstein, L. 2001. <em>Philosophical Investigations: The German Text with a Revised English Translation</em>, 3º edición. Oxford: Blackwell. Traducido por G.E.M. Anscombe. Incorpora revisiones finales hechas por Elizabeth Anscombe a la edición en inglés. Algunos errores de tipeo han sido corregidos y el texto ha sido repaginado.
 
{{Citar|url = http://dia.austral.edu.ar/Concepciones_semánticas_de_la_información|cabecera = Floridi, Luciano. 2015. "Concepciones semánticas de la información"}}
 
== Derechos de autor ==
Voz "Concepciones semánticas de la información", traducción autorizada de la entrada "[http://plato.stanford.edu/archives/spr2015/entries/information-semantic/ Semantic Conceptions of Information]" de la ''Stanford Encyclopedia of Philosophy (SEP) ''© 2015. La traducción corresponde a la entrada de los archivos de la SEP, la que puede diferir de la versión actual por haber sido actualizada desde el momento de la traducción. La versión actual está disponible en http://plato.stanford.edu/entries/information-semantic/
 
El DIA agradece a SEP la autorización para efectuar y publicar la presente traducción.
 
Traducción a cargo de Cristian López. DERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E.Vanney - 2015.
 
ISSN: 2524-941X
 
 
== Agradecimientos ==
 
Este artículo está basado en Floridi [2003a] y [2010]. Agradezco a Blackwell el permiso de reproducir partes del texto original y a Bosch UK por haberme permitido reproducir el dibujo en la Figura 2. Me he beneficiado significativamente de muchos comentarios editoriales por Fred Kroon y Jerry Seligman a los borradores previos. También agradezco a varios colegas y amigos por sus útiles sugerencias y por las conversaciones en torno a borradores anteriores y artículos pasados en los cuales se basa esta entrada. Ellos son sólo responsables de las demoras, pero no de cualquier error remanente: Frederick R. Adams, Mark Bedau, John Collier, Ian C. Dengler, Michael Dunn, Roger Brownsword, Timothy Colburn, James Fetzer, Phil Fraundorf, Gian Maria Greco, Ken Herold, Bernard Katz, Philipp Keller, Gianluca Paronitti, Jeff Sanders, Sebastian Sequoiah-Grayson, Janet D. Sisson, Ernest Sosa, J. L. Speranza, Matteo Turilli, y Edward N. Zalta.
 
[[Categoría:Información]]
[[Categoría:Filosofía de la ciencia]]
Autores, Editores, Burócratas, Administradores
2226
ediciones