Abrir menú principal

DIA β

Cambios

Teoría de la información de Claude E. Shannon

12 590 bytes añadidos, 20:40 22 ago 2016
sin resumen de edición
“Mi preocupación más grande era cómo llamarla. Pensé en llamarla ‘información’, pero esa palabra estaba muy usada, de forma tal que decidí llamarla ‘incerteza’. Cuando discutí el asunto con John von Neumann, el tuvo una idea mejor. Von Neumann me dijo: ‘Deberías llamarla entropía, por dos motivos. En primer lugar tu función de incerteza ha sido usada en la mecánica estadística bajo ese nombre, y por ello, ya tiene un nombre. En segundo lugar, y lo que es más importante, nadie sabe lo que es la entropía realmente, por ello, en un debate, siempre llevarás ventaja.’” (Tribus and McIrving 1971, 180).
En efecto, la La conexión con la física a la que hace mención von Neumann en la cita de arriba ha sido estudiada profundamente en la literatura física y filosófica (ver por ejemplo Landauer 1991; Landauer 1996; Lombardi 2005; Duwell 2003; Duwell 2008; Jozsa 1998; Jozsa 2004; Deutsch y Hayden 2000; Timpson 2003; Timpson 2004; Timpson 2006; Timpson 2008; Timpson 2013; Stonier 1990; Stonier 1996; Floridi 2010; Floridi 2011; Floridi 2013; Brukner y Zeilinger 2001; Brukner y Zeilinger 2009)
La relación entre las entropías de la fuente ''H''(''S'') y del destinatario ''H''(''D'') se puede representar intuitivamente por el siguiente diagrama:
[[File:Shannon 10.jpg|center]] <div align="right">(8)</div>
Donde el máximo se toma sobre todas las posibles distribuciones [[File:Shannon 11.jpg]] en la fuente. La magnitud ''C'' se interpreta como la cantidad de información promedio más grande que puede ser transmitida sobre por el canal de comunicación ''CH''.
En los años 40 se pensaba que el incremento de la tasa de transmisión de información sobre un canal de comunicación siempre aumentaría la probabilidad de error. El segundo teorema, conocido como teorema de codificación en un canal con ruido, sorprendió a la comunidad de la teoría de la comunicación probando que esa hipótesis no era cierta si se mantenía la tasa de comunicación por debajo de la capacidad del canal. La capacidad del canal es igual a la tasa máxima con la cual la información puede ser enviada por el canal y recuperada en el destinatario con una probabilidad de error despreciable.
Vamos a ver esto con un poco más de detalle. La fuente consiste en un sistema S de n estados ''s<sub>i</sub>'', que se pueden pensar como letras de un alfabeto ''A<sub>s</sub> '' = {''s''<sub>1</sub>,...,''s''<sub>''n''</sub>''}, cada una con su propia probabilidad ''p''(''s<sub>i</sub>''). Las secuencias de letras son llamadas mensajes. La entropía de la fuente ''H''(''S'') se puede calcular exclusivamente en términos de estos elementos, y se mide en bits cuando el logaritmo tiene base 2. A su vez, el transmisor codifica el mensaje de la fuente y esto equivale a hacer una conversión entre el alfabeto de la fuente ''A<sub>s</sub> '' = {''s''<sub>1</sub>,...,''s''<sub>''n''</sub>}, y el código del alfabeto del transmisor ''T'', que viene dado por ''A<sub>C</sub> '' = {''c''<sub>1</sub>,...,''c''<sub>''q''</sub>''}. Los elementos ''c<sub>i</sub>'' son llamados símbolos. La secuencia de símbolos producidos por el transmisor y que entran al canal se llama ''señal''. El alfabeto de n símbolos ''A<sub>S</sub>'' puede variar mucho dependiendo de los distintos dispositivos empleados. Por otro lado, en muchos ejemplos de interés, conviene elegir un ''A<sub>C</sub>'' binario, es decir, con ''q'' = 2. En este caso, los símbolos son directamente dígitos binarios. Pero en el caso más general, el alfabeto del código se puede implementar físicamente por medio de sistemas que tengan una cantidad q de estados disponibles. Para el caso particular en que ''q'' = 2, los sistemas de dos niveles se pueden llamar ''cbits''.
En el contexto de la teoría de la información de Shannon, codificar implica establecer un mapa entre las letras ''s<sub>i</sub>'' del alfabeto de la fuente ''A<sub>S</sub>'' al  el conjunto de cadenas de longitud finita de símbolos del alfabeto del código ''A<sub>C</sub>''. Estas suelen llamarse palabras-código. En general, las palabras-código no tienen la misma longitud. Cada palabra-código ''w<sub>i</sub>'' que corresponde a la letra ''s<sub>i</sub>'', va a tener una longitud ''l<sub>i</sub>''. Pero las longitudes ''l<sub>i</sub>'' de las distintas palabras-código pueden variar. Es entonces útil definir una longitud de palabra-código promedio como:
[[File:Shannon 12.jpg|center]] <div align="right">(9)</div>
Esta visión ‘física’ de la información está apoyada por la creencia fuertemente establecida de que la transmisión de información entre dos puntos del espacio físico necesariamente requiere una señal que transporte esa información. En otras palabras, un proceso físico que se propague de un punto a otro. Uno de los más importantes defensores de esta perspectiva es Rolf Landauer. Este autor afirma que: “la información no es una entidad abstracta desprovista de cuerpo''. Está representada por un grabado en una tabla de piedra, un spin, una carga, un agujero en una tarjeta agujereada, una marca en un papel, o algún equivalente''.” (1996, 188; ver también Landauer 1991). La necesidad de un mecanismo de transpórte físico de la señal suena natural a la luz de la idea genérica de que las influencias físicas solo pueden ser transferidas a través de interacciones. En esta base, la información es concebida por muchos físicos como una entidad física con el mismo estatus que, por ejemplo, la energía (Aczél y Daróczy 1975).
Como mencionamos arriba, la naturaleza abstracta de la información no nos fuerza a  adoptar a adoptar una posición en la que la información no es pueda ser considerada como una noción física. Muchos conceptos físicos han sufrido cambios en de forma tal que, a medida que crece su abstracción y generalización, dejan de estar atados a una teoría física particular y permean a la totalidad de la física. Tal es el caso de la energía: esta noción está presente en todas las teorías físicas importantes y no está atada a ninguna en particular. Tiene diferentes manifestaciones físicas en dominios diferentes. Tomando este ejemplo como punto de partida, es muy tentador el intentar hacer una afirmación similar para la noción de información. Desde el punto de vista de esta línea argumentativa, no parecen haber serios obstáculos para concebir a la noción de información como un concepto físico.
La lista de posibles interpretaciones de la noción de información expuesta arriba no es exhaustiva. Sería imposible cubrir todo el espectro en esta breve entrada. Pero la lista expuesta arriba nos muestra que hay, en efecto, distintas posibilidades. Y existen argumentos atractivos para cada una de ellas. Es quizá por esto que aún hoy, el debate continúa.
¿Cuál es el camino a seguir frente a semejante proliferación de interpretaciones? Desde un punto de vista filosófico, existe la tentación de afirmar que estamos frente a un caso de indeterminación metafísica: disponemos de una teoría o formalismo que describe muchos ejemplos físicos de interés, pero la evidencia empírica disponible no es suficiente para tomar una posición concluyente en favor de una u otra interpretación. Esta situación empeora si se toman en cuenta las aplicaciones diversas que tiene la teoría de Shannon en distintos campos de la ciencia. Pero entonces se plantea el problema de responder a la pregunta: ¿qué es la Teoría de la Información de Shannon? Ciertamente disponemos de una formulación de un cuerpo teórico que encuentra diversas aplicaciones, y que fue motivado por los problemas subyacentes a la teoría general de la comunicación. Pero con el correr de los tiempos, su dominio de aplicación trascendió el de la ingeniería de la comunicación y se extendió a otras disciplinas. Paralelamente, el formalismo de Shannon fue objeto de una matematización creciente, en la que sus nociones son expuestas con un grado cada vez mayor de abstracción y rigurosidad. Paradójicamente, este estado de las cosas, en el que proliferan las aplicaciones e interpretaciones, ofrece al mismo tiempo una posibilidad de resolución. Como veremos a continuación, si se adopta una concepción pluralista de la teoría de la información, es posible encontrar un marco teórico en el que las diferentes interpretaciones dejan de ser rivales, y se convierten en herramientas con distintos campos de aplicación.
Como ya hemos mencionado, en algunos textos tradicionales sobre la teoría de la información, la teoría de Shannon es usualmente introducida desde una perspectiva física y vinculada con distintas problemáticas asociadas a la ingeniería de la comunicación. Sin embargo, algunos desarrollos subsiguientes se orientaron en una dirección formal que pone el centro en el rigor matemático, transformando a la Teoría de la Información en una suerte de rama de las matemáticas. Los conceptos básicos son introducidos en términos de nociones tomadas de la teoría matemática de la probabilidad, como por ejemplo, variables aleatorias y distribuciones de probabilidad. Las nociones de fuente, canal y receptor van dejando lugar al edificio del formalismo matemático, vacío en principio de toda interpretación física, y son introducidas a posteriori como posibles ejemplos de aplicaciones. Esta perspectiva formal puede encontrarse por ejemplo, en los libros clásicos de Aleksandr Khinchin (1957) y Fazlollah Reza (1961). En ellos, la Teoría de la Información es considerada como una suerte de extensión de la teoría matemática de las probabilidades (que puede ser considerada a su vez como un caso especial de la teoría de la medida). Uno de los ejemplos más importantes de este abordaje es el de Thomas Cover y Joy Thomas en su libro ''Elements of InformationTheory Information Theory''(1991). Los autores conciben a la teoría de la información desde un punto de vista general, como un formalismo que es susceptible de ser aplicado en campos muy diversos:
“La teoría de la información responde a dos cuestiones fundamentales en la teoría de la comunicación:'' cuál es la compresión de datos máxima ''[...] ''y cuál es la tasa máxima de transmisión de comunicación ''[...]''. Por esta misma razón, algunos consideran a la teoría de la información como un subconjunto de la teoría de la comunicación. Argumentaremos que ésta es mucho más aún. En efecto, tiene contribuciones fundamentales para hacer en física estadística (termodinámica), ciencias de la computación (complejidad de Kolmogorov o complejidad algorítmica), inferencia estadística (navaja de Occam: ‘La explicación más simple es la mejor’) y probabilidad y estadística (tasas de error para testeo y estimación de hipótesis óptimo)''” (Cover and y Thomas 1991, 1).
Esta concepción de la teoría de la información como un formalismo matemático que encuentra aplicaciones en diversos campos, abre la puerta a una concepción pluralista de la noción de información. Veamos con un poco de detalle cómo funciona esta perspectiva. El primer paso es definir dos variables aleatorias discretas con alfabetos ''A ''y ''B'', y funciones de probabilidad ''p''(''x'') = Pr(''X'' = ''x''), con ''x'' &isin; ''A'', y ''p''(''y'') = ''Pr''(''Y'' = ''y''), donde ''y'' &isin; ''B'', respectivamente. En este caso nos restringimos a variables discretas por simplicidad, pero la presentación se puede extender en forma natural a variables continuas. Una vez definidas estas nociones matemáticas, las entropías de las variables ''X'' y ''Y'', ''H''(''X'') y ''H''(''Y'') se definen en forma usual. De forma análoga se pueden definir otras funciones importantes, como la entropía conjunta ''H''(''X'', ''Y''):
Estos ejemplos ilustran que probablemente, sea necesario adoptar una interpretación pluralista de la teoría de la información, en la que las diferentes perspectivas no son rivales, sino casos particulares de aplicaciones de un formalismo lógico-matemático general. Todas estas interpretaciones serían legítimas en la medida que su aplicación sea exitosa en algún dominio de la ciencia o de la tecnología. Con respecto a esta visión, es interesante tener en cuenta las palabras del propio Shannon, quien afirmaba que:
“La palabra ‘información’'' ha sido dotada de diferentes significados por varios escritores en el campo general de la teoría de la información''. [...] Es difícilmente esperable que un único concepto de información de cuenta satisfactoriamente de las numerosas aplicaciones posibles de este campo genera<em>I</em>general.” (Shannon 1993, 180).
==Bibliografía==
 
Aczél, J. y Darócsy, Z. 1975. ''On measures of information and their characterization''. New York-San Francisco-London: Academic Press.
 
Adami, C. 2012. “The use of information theory in evolutionary biology”. ''Annals of the New York Academy of Sciences'' 1256:&nbsp;49–65. doi:&nbsp;10.1111/j.1749-6632.2011.06422.x
 
Adriaans, P. 2013. “Information.” En ''The Stanford Encyclopedia of Philosophy ''(Fall 2013 Edition), editado por E. N. Zalta URL = [http://plato.stanford.edu/archives/fall2013/entries/information/ http://plato.stanford.edu/archives/fall2013/entries/information/]
 
Adriaans, P. y van Benthem, J., eds. 2008. ''Handbook of Philosophy of Information''. Amsterdam: Elsevier Science Publishers.
 
Bar-Hillel, Y. 1964. ''Language and Information: Selected Essays on Their Theory and Application''. Reading, MA: Addison-Wesley.
 
Bar-Hillel, Y. y Carnap, R. 1953. “Semantic Information.” ''The British Journal for the Philosophy of Science'' 4: 147-157.
 
Barwise, J. y Seligman, J. 1997. ''Information Flow. The Logic of Distributed Systems''. Cambridge Cambridge University Press.
 
Bell, D. 1957. ''Information Theory and its Engineering Applications''. London: Pitman & Sons.
 
Brukner, Č. y Zeilinger, A. 2001. “Conceptual Inadequacy of the Shannon Information in Quantum Measurements.” ''Physical Review A'' 63: #022113.
 
Brukner, Č. y Zeilinger, A. 2009. “Information Invariance and Quantum Probabilities.” ''Foundations of Physics'' 39: 677-689.
 
Bub, J. 2005. “Quantum mechanics is about quantum information”. ''Found. Phys.'' 35: 541–560.
 
Caves, C. M. y Fuchs, C. A. 1996. “Quantum Information: How Much Information in a State Vector?” En ''The ''Dilemma'' of Einstein, Podolsky and Rosen - 60 Years Later''. ''Annals of the Israel Physical Society'', editado por A. Mann y M. Revzen, 12: 226-257 (see also quant-ph/9601025).
 
Caves, C. M., Fuchs, C. A., y Schack, R. 2002b. “Unknown Quantum States: The Quantum de Finetti Representation.” ''Journal of Mathematical Physics'' 43: 4537-4559.
 
Chaitin, G. 1987. ''Algorithmic Information Theory''. New York: Cambridge University Press.
 
Clifton, R.; Bub, J. y Halvorson, H. 2003. “Characterizing quantum theory in terms of information-theoretic constraints”. ''Found. Phys.'' 33: 1561–1591.
 
Cover, T. y Thomas, J. A. 1991. ''Elements of Information Theory''. New York: John Wiley & Sons.
 
Cox, R. T. 1946. “Probability, frequency and reasonable expectation”. ''American Journal of Physics'' 14(1).
 
Cox, R. T. 1961. ''The Algebra of Probable Inference''. Baltimore, MD: The Johns Hopkins Press.
 
Deutsch, D. y Hayden, P. 2000. “Information Flow in Entangled Quantum Systems.” ''Proceedings of the Royal Society of London A'' 456: 1759-1774.
 
Deutsch, D., 1985. “Quantum theory, the Church-Turing principle and the universal quantum computer”. ''Proceedings of the Royal Society of London A'' 400: 97-117.
 
Dretske, F. 1981. ''Knowledge & the Flow of Information''. Cambridge MA: MIT Press.
 
Dunn, J. M. 2001. “The Concept of Information and the Development of Modern Logic”. En ''Non-classical Approaches in the Transition from Traditional to Modern Logic'', editado por W. Stelzner, 423-427. Berlin: de Gruyter.
 
Duwell, A. 2003. “Quantum Information Does Not Exist.” ''Studies in History and Philosophy of Modern Physics'' 34: 479-499.
 
Duwell, A. 2008. “Quantum Information Does Exist.” ''Studies in History and Philosophy of Modern Physics'' 39: 195-216.
 
Feynman, R. 1982. “Simulating physics with computers”. ''International Journal Of Theoretical Physics'' 21: 467-488.
 
Fisher, R. 1925. “Theory of Statistical Estimation.” ''Proceedings of the Cambridge Philosophical Society ''22: 700-725.
 
Floridi, L. 2010. ''Information – A Very Short Introduction''. Oxford: Oxford University Press.
 
Floridi, L. 2011. ''The Philosophy of Information''. Oxford: Oxford University Press.
 
Floridi, L. 2013. “Semantic Conceptions of Information”. En ''The Stanford Encyclopedia of Philosophy ''(Spring 2013 Edition), editado por E. N. Zalta. URL = [http://plato.stanford.edu/archives/spr2013/entries/information-semantic/ http://plato.stanford.edu/archives/spr2013/entries/information-semantic/]
 
Goyal, P. y Knuth, K. 2011. “Quantum theory and probability theory: their relationship and origin in symmetry”. ''Symmetry'' 3(2):171–206.
 
Hartley, R. V. L. 1928. “Transmission of Information”. ''Bell SystemsTechnical Journal'' p. 535.
 
Hayashi, M. 2006. ''Quantum Information''. Berlin-Heidelberg: Springer.
 
Holik, F., Sáenz, M. y Plastino, A. 2014. “A discussion on the origin of quantum probabilities”. ''Annals of Physics'' 340(1):293 – 310.
 
Holik, F., Plastino, A. y Sáenz, M. 2016. “Natural information measures in Cox' approach for contextual probabilistic theories”, a publicarse en ''Quantum Information & Computation''.
 
Holik, F., Bosyk, G. y Bellomo, G. 2015. “Quantum Information as a Non-Kolmogorovian Generalization of Shannon’s Theory”. ''Entropy ''17(11): 7349-7373; doi:10.3390/e17117349
 
Jaynes, E. T. y Bretthorst, G. L. 2003. ''Probability Theory: The Logic of Science''. Cambridge: Cambridge University Press.
 
Jaynes, E. T. 1957. “Information Theory and Statistical Mechanics”. ''Phys. Rev.''&nbsp;106: 620.
 
Jozsa, R. 1998. “Entanglement and Quantum Computation”. En'' The Geometric Universe'', editado por S. Huggett, L. Mason, K. P. Tod, S. T. Tsou y N. M. J. Woodhouse, 369-79. Oxford: Oxford University Press.
 
Jozsa, R. 2004. “Illustrating the Concept of Quantum Information.” ''IBM Journal of Research and Development'' 4: 79-85.
 
Khinchin, A. 1957. ''Mathematical Foundations of Information Theory''. New York: Dover.
 
Knuth, K. 2004. “Deriving laws from ordering relations”. En ''Bayesian inference and maximum entropy methods in science and engineering'', volumen 707 de AIP Conf. Proc., 204–235. Amer. Inst. Phys., Melville, NY.
 
Knuth, K. 2005a. “Lattice duality: The origin of probability and entropy”. ''Neurocomputing'' 67(0): 245 – 274.
 
Knuth, K. 2004. “Measuring questions: relevance and its relation to entropy”. En ''Bayesian inference and maximum entropy methods in science and engineering'', volumen 735 de AIP Conf. Proc., 517–524. Amer. Inst. Phys., Melville, NY.
 
Knuth, K. 2005b. “Toward question-asking machines: The logic of questions and the inquiry calculus”. En ''Society for Artificial Intelligence and Statistics'', editado por Robert G. Cowell y Zoubin Ghahramani, 174 – 180. (Disponible electrónicamente en [http://www.gatsby.ucl.ac.uk/aistats/ http://www.gatsby.ucl.ac.uk/aistats/] ).
 
Knuth, K. 2012. “What is a question?” En ''Bayesian inference and maximum entropy methods in science and engineering'', volumen 659 de AIP Conf. Proc., 227–242.<nowiki> Amer. Inst. Phys., Melville, NY, 2003. [29] Kevin H. Knuth and John Skilling. </nowiki>Foundations of inference. Axioms, 1(1):38–73.
 
Kolmogorov, A. N. 1933. ''Foundations of Probability Theory''. Berlin: Julius Springer.
 
Landauer, R. 1991. “Information is Physical.” ''Physics Today ''44: 23-29.
 
Landauer, R. 1996. “The Physical Nature of Information.” ''Physics Letters A ''217: 188-193.
 
Lombardi, O. 2004. “What is Information?” ''Foundations of Science ''9: 105-134.
 
Lombardi, O. 2005. “Dretske, Shannon’s Theory and the Interpretation of Information.” ''Synthese'' 144: 23-39.
 
Lombardi, O., Holik, F. y Vanni, L. 2015. “What is Shannon Information?” ''Synthese'' (DORDRECHT); Lugar: Berlin. DOI: 10.1007/s11229-015-0824-z
 
MacKay, D. 1969. ''Information, Mechanism and Meaning''. Cambridge MA: MIT Press.
 
Manin, Y. 1980. ''Computable and Uncomputable'' (en Ruso).'' ''Moscow: Sovetskoye Radio.
 
Nauta, D. 1972. ''The Meaning of Information''. The Hague: Mouton.
 
Nielsen, M.A. y Chuang, I.L. 2010. ''Quantum Computation and Quantum Information''. Cambridge: Cambridge University Press.
 
Nyquist, H. 1924. “Certain Factors Affecting Telegraph Speed”. ''Bell System Technical Journal'', p. 617.
 
Nyquist, H. 1928. “Certain Topics in Telegraph Transmission Theory”. ''AIEE Trans.'' 47: 617.
 
Montanaro, A. 2016. “Quantum algorithms: an overview”. ''npj Quantum Information'' 2: 15023; doi:10.1038/npjqi.2015.23.
 
Pfeifer, J. 2006. “The Use of Information Theory in Biology: Lessons from Social Insects”. ''Biological Theory'' 1(3): 317–330.
 
Rastegin, A. 2014. “Tests for quantum contextuality in terms of q-entropies”. ''Quantum Information And Computation'' 14: 0996–1013.
 
Rényi, A. 1961. ''On Measures of Entropy and Information''. Berkeley: University of California Press.
 
Renes, J. 2013. “The physics of quantum information: complementarity, uncertainty and entanglement”.&nbsp;''International Journal of Quantum Information''&nbsp;11: 1330002.
 
Reza, F. 1961. ''Introduction to Information Theory''. New York: McGraw-Hill.
 
Schumacher, B. 1995. “Quantum Coding.” ''Physical Review A'' 51: 2738-2747.
 
Schor, P. 2000. “Introduction to quantum algorithms”. ''Proceedings of Symposia in Applied Mathematics''.
 
Schor, P. 1997. “Polinomial-time algorithms for prime factorization and discrete logarithms on a quantum computer”. ''SIAM J. Computing'' 26: 1474-1483.
 
Segal, J. 2015. “The notion of information in biology, an appraisal”. ''BIO Web of Conferences'' 4: 00017.
 
Shannon, C. 1948. “A Mathematical Theory of Communication.” ''Bell System Technical Journal'' 27: 379-423.
 
Shannon, C. 1993. ''Collected Papers'', editado por N. Sloane y A. Wyner. New York: IEEE Press.
 
Shannon, C. y Weaver, W. 1949. ''The Mathematical Theory of Communication''. Urbana and Chicago: University of Illinois Press.
 
Shin, S., Smith, G., Smolin, J. y Vazirani, U. 2014. “How “Quantum” is the D-Wave Machine?” arXiv:1401.7087v2.
 
Simon, D. 1997. “On the power of quantum computation”. ''Siam J. Comput.'' 26, 5: 1474–1483.
 
Skilling, J., Ed. 1988. ''Maximum Entropy and Bayesian Methods''. London: Springer.
 
Stonier, T. 1990. ''Information and the Internal Structure of the Universe: An Exploration into Information Physics''. New York-London: Springer.
 
Stonier, T. 1996. “Information as a Basic Property of the Universe.” ''Biosystems'' 38: 135-140.
 
Tame, M.S., Prevedel, R., Paternostro, M. , Bo, P. , Kim, M.S. y Zeilinger, A. 2007. “Experimental Realization of Deutsch’s Algorithm in a One-Way Quantum Computer”. ''Physical Review Letters'' 98: 140501.
 
Timpson, C. 2003. “On a Supposed Conceptual Inadequacy of the Shannon Information in Quantum Mechanics.” ''Studies in History and Philosophy of Modern Physics'' 34: 441-68.
 
Timpson, C. 2004. ''Quantum Information Theory and the Foundations of Quantum Mechanics''. PhD diss., University of Oxford (quant-ph/0412063).
 
Timpson, C. 2006. “The Grammar of Teleportation.” ''The British Journal for the Philosophy of Science'' 57: 587-621.
 
Timpson, C. 2008. “Philosophical Aspects of Quantum Information Theory.” En ''The Ashgate Companion to the New Philosophy of Physics'', editado por Dean Rickles, 197-261. Aldershot: Ashgate Publishing. Los números de página fueron tomados de la version online: arXiv:quant-ph/0611187.
 
Timpson, C. 2013. ''Quantum Information Theory and the Foundations of Quantum Mechanics''. Oxford: Oxford University Press.
 
Tribus, M. y Mc Irving, E. C. 1971. “Energy and Information.” ''Scientific American'' 225: 179-188.
 
Tsallis, C. 1988. “Possible generalization of boltzmanngibbs statistics”. ''Journal of Statistical Physics'' 52(1-2): 479–487.
 
Vedral, V. 2010. ''Decoding Reality: The Universe as Quantum Information''. Oxford: Oxford University Press.
 
von Toussaint, U. 2011. “Bayesian inference in physics”. ''Reviews of Modern Physics''&nbsp;83: 943.
 
Yockey, P. 2005. ''Information theory, evolution, and the origin of life''. Cambridge: Cambridge University Press.
 
Yockey, P. 1992. ''Information theory and molecular biology''. Cambridge: Cambridge University Press.
 
Yockey, H., Platzman, R. y Quastler, H., Eds. 1956. ''Information Theory in Biology''. New York-London-Paris-Los Angeles: Pergamon Press.
 
 
 
{{Citar|url = http://dia.austral.edu.ar/Teoría_de_la_información_de_Claude_E._Shannon|cabecera = Holik, Federico. 2016. "Teoría de la información de Claude E. Shannon"}}
 
 
==Derechos de autor==
 
DERECHOS RESERVADOS Diccionario Interdisciplinar Austral © Instituto de Filosofía - Universidad Austral - Claudia E. Vanney - 2016.
 
ISSN: 2524-941X
 
 
[[Categoría:Información]]
[[Categoría:Filosofía de la física]]
Autores, Editores, Burócratas, Administradores
2226
ediciones