Ley Zipf

La Ley de Zipf es una ley empírica que describe la frecuencia de un evento P Me {\displaystyle P_{i}} ser parte de un conjunto, dependiendo de la posición Me {\displaystyle i} (dicho rango) en orden descendente con respecto a la frecuencia de ese evento en sí. dónde: el lingüista George Kingsley Zipf lo describió en 1949 en Human Behaviour and the Principle of Least - Effort.

Los campos de aplicabilidad de la Ley de Zipf son variados, y también ha habido tendencias de pensamiento que incluso la han propuesto como la contraparte de la distribución gaussiana en las Ciencias Sociales. De hecho, como las distribuciones en las ciencias naturales no siempre siguen una tendencia Gaussiana, mucho menos las distribuciones de las ciencias sociales o eventos relacionados con la actividad humana pueden enmarcarse precisamente en las tendencias hiperbólicas de la Ley de Zipf. Sin embargo, hay casos en los que los resultados previstos por la Ley de Zipf son fuertemente verificados por los datos observados; entre los más famosos ciertamente hay aquellos que consideran las frecuencias de las palabras en los escritos, o los que analizan la distribución de la población en las diversas ciudades del estado. Estos últimos ejemplos han sido exhaustivamente analizados y documentados por el propio Zipf en sus escritos más famosos. En el ámbito económico cabe la Ley de Zipf bueno para representar la situación de productividad de las diversas empresas que operan en el mismo sector. Si representas la productividad de una empresa en función de su posición en el ranking, obtienes la tendencia hiperbólica de la ley Zipf. Este hecho ya había sido observado a finales del siglo xix por el economista Wilfredo Pareto. Más generalmente la Ley de Zipf se puede reformular como: con θ {\displaystyle \ theta } constante positiva cercana a 0 (para θ = 1 {\displaystyle \ theta =1} caería en la distribución aleatoria, es decir, equiprobabilidad).

Usando la ley Zipf más general el término es la función zeta de Riemann ζ ( a ) Benoît Mandelbrot demostró en los años cincuenta que tales leyes pueden inferirse de la teoría de la información de Claude Shannon. La ley dinámica indica cómo maximizar la utilidad de un canal maximizando la entropía, preferiblemente utilizando los símbolos menos costosos. Por ejemplo, en código morse la letra frecuente e se codifica con un solo punto (.), mientras que la letra x menos frecuente está representada por una línea, dos puntos y una línea (-. -) . El código de Huffman aplica esa ley dinámica. Mandelbrot hipotetiza que el costo de uso es directamente proporcional al costo de almacenamiento, después de observarlo en todos los dispositivos que observó, desde la escritura de contabilidad hasta las computadoras. La eliminación del costo entre las dos ecuaciones resulta en una familia de ecuaciones que vinculan la frecuencia de una palabra a su rango para que el canal se use de manera óptima. Esta generalización adicional, también llamada '' Ley de Mandelbrot está dada por ella se ha observado que en la mayoría de los idiomas existentes el parámetro para el exponente a está cerca de 1, 1 y 1, 2, mientras que en el lenguaje de los niños está cerca de 1, 6. Al representar las leyes de Zipf y Mandelbrot en un sistema cartesiano con coordenadas log-log, entonces la Ley de Zipf corresponde a una línea recta, mientras que la Ley de Mandelbrot muestra una joroba. Una interpretación de la Ley de Zipf como una variable aleatoria es dada por la Variable aleatoria Zeta, por esta razón también llamada variable aleatoria de Zipf. El equivalente continuo es la variable aleatoria Paretiana. Casos similares se consideran la Ley de Bradford, la La variable aleatoria de Yule y la Ley de Benford. La relación existente entre las leyes de Zipf y Mandelbrot es similar a la existente entre la Ley de Mariotte y la de van der Waals, dado que en ambos casos, un factor de corrección (el parámetro a en el caso de la Ley de Mandelbrot) permite aproximar los datos observados con los valores teóricos, representando un "incompresible" .

Teoría de la probabilidad

Lingüística Computacional

Paradoja del ascensor

En matemáticas, la paradoja del ascensor es un fenómeno estudiado por primera vez en 1958 por el físico George Gamow y el matemático Marvin Stern, que tenían su...

Paradoja de Ellsberg

La paradoja de Ellsberg es una paradoja destacada por la economía Experimental, en la que las elecciones de los individuos violan la hipótesis subyacente a la t...

Paradojas matemáticas

Teorías en economía

Esta página se basa en el artículo de Wikipedia: Fuente, Autores, Licencia Creative Commons Reconocimiento-CompartirIgual.
This page is based on the Wikipedia article: Source, Authors, Creative Commons Attribution-ShareAlike License.
contactos
Política de privacidad , Descargos de responsabilidad