You are on page 1of 2

Teor�a algor�tmica de la informaci�n

Ir a la navegaci�nIr a la b�squeda
La teor�a algor�tmica de la informaci�n, es una teor�a cient�fica de las ciencias
de la computaci�n, que en contraste con la cl�sica teor�a de la informaci�n, se
basa en la complejidad de Kolmogorov para la determinaci�n del contenido de la
informaci�n. Fue desarrollada principalmente por Gregory Chaitin, Andrey Kolmogorov
y Ray Solomonoff.

�ndice
1 Introducci�n
2 Ejemplo
3 Antecedentes Matem�ticos
4 Enlaces externos
Introducci�n
La teor�a algor�tmica de la informaci�n, principalmente estudios de las medidas de
complejidad en las cadenas (o estructuras de datos). Como la mayor�a de los objetos
matem�ticos pueden ser descritos en t�rminos de cadenas, o como el l�mite de una
secuencia de cadenas, puede ser usado para estudiar una amplia variedad de objetos
matem�ticos, incluyendo n�meros enteros y n�meros reales.

Algunos de los resultados de la teor�a algor�tmica de la informaci�n, como el


teorema de incompletitud de Chaitin, parecen desafiar intuiciones matem�ticas y
filos�ficas. El m�s notable de ellos es la construcci�n de la constante de Chaitin
O, un n�mero real que expresa la probabilidad de que una de m�quina universal de
Turing de auto-delimitaci�n puede detenerse con datos de entrada generadas por
lanzamientos de moneda.

Ejemplo
Seg�n la definici�n cl�sica, de acuerdo con Claude Shannon, el contenido de la
informaci�n de las siguientes secuencias binarias es la misma (s�lo aplica la
entrop�a de primer orden):

1100100001100001110111101110110011111010010000100101011110010110
1111111111111111111111111111111100000000000000000000000000000000
La primera secuencia ha sido producida por un muestreo aleatorio, en la segunda
secuencia, sin embargo, se utiliza la instrucci�n "32x1 a continuaci�n, y entonces
32X0". A los efectos de la teor�a algor�tmica de la informaci�n, la primera
secuencia por tanto, tiene m�s informaci�n algor�tmica , ya que es mucho m�s
compleja o no se puede comprimir. Es decir, la informaci�n algor�tmica es tanto
mayor, cuanto menos puede ser comprimida una cadena de caracteres (entre otros, por
compresi�n de datos). Las secuencias aleatorias y ruido blanco en general no
contienen ning�n patr�n predecible y por tanto no son compresibles - el contenido
de la informaci�n algor�tmica es por tanto mayor.

Antecedentes Matem�ticos
El enfoque de Andrei Kolmogorov se puede aplicar tambi�n a los algoritmos de
programas arbitrarios de una m�quina de Turing. Gregory Chaitin aplicando la
complejidad de Kolmogorov en la teor�a de las funciones recursivas (ver tambi�n �-
recursion c�lculo lambda y el trabajo relacionado de Kurt G�del), limita las
aplicaciones posibles a las que se pueden ejecutar en una variante especial de la
m�quina universal de Turing (UTM), llamada m�quina universal de Turing con
autodelimitaci�n.

Tras la demostraci�n de Chaitin, en principio, no se puede determinar si una cadena


se puede reducir a�n m�s algoritmicamente. Por ejemplo, se han encontrado nuevos y
m�s eficientes algoritmos de compresi�n, pero una secuencia aparentemente aleatoria
de n�meros puede venir de un generador pseudo-aleatorio. Debido al problema de
parada (Halting Problem) no todas las m�quinas de Turing pueden ser utilizadas un
tiempo finito.

Enlaces externos
C�mo ejecutar algor�tmica Teor�a de la Informaci�n en un equipo por Gregory
Chaitin(en ingl�s)
Los l�mites de las matem�ticas por Gregory Chaitin, incluyendo un int�rprete para
un extendido LISP para simular autolimitada UTM(en ingl�s)
Mensajes de comprimido de los extranjeros id�ntico al ruido

You might also like