Sobre la distancia mínima de códigos AG unipuntuales castillo
On the Minimum Distance of One-Point Castle AG Codes
Presentamos una caracterización de la cota inferior d∗ para la distancia mínima de códigos algebraico-geométricos unipuntuales sobre curvas castillo. Calculamos explícitamente esta cota en el caso de un semigrupo de Weierstrass generado por dos elementos consecutivos. En particular, obtenemos una caracterización más simple del valor exacto de la distancia mínima para códigos Hermitianos.
1 INTRODUCCIÓN
La teoría de códigos correctores de errores tiene su génesis en el año 1948 con la publicación del artículo [15] Shannon C.E., A Mathematical Theory of Communication en Bell Systems Technical Journal. Inicialmente, como sucede en los trabajos de Shannon, la teoría es esencialmente probabilística y los resultados obtenidos solamente demuestran la existencia de buenos códigos sin mostrar cómo podrían ser construidos. La necesidad de construir estos códigos explícitamente hizo que años más tarde el álgebra y la teoría de números hicieran importantes aportes a esta teoría, con los trabajos de R. Hamming, M. Golay y otros.
La finalidad de un código corrector de errores es preservar la calidad de la información que es transmitida a través de un canal con ruido. Por lo tanto, su objetivo es detectar y corregir la mayor cantidad posible de errores que puedan ocurrir durante dicha transmisión. La idea básica para conseguir esto es la de codificar los datos del mensaje agregando una cantidad extra de símbolos (redundancia) de un modo estructurado. De esta manera, el receptor tiene la posibilidad de determinar si han ocurrido errores durante la transmisión y recobrar con suficiente certeza el mensaje original.
El propósito de la teoría de códigos correctores consiste en crear códigos con alguna estructura matemática que permita corregir el máximo número posible de errores, añadiendo la menor cantidad de redundancia (es decir, códigos confiables y eficientes). Aunque en la práctica existen restricciones, se conocen como bueno códigos aquellos que mantienen un equilibrio entre estos dos aspectos.
En este sentido, la primera alternativa es considerar la información como una larga secuencia de símbolos de un cuerpo finito Fq (alfabeto). La forma más usada que se conoce como codificación por bloques consiste en dividir la información en bloques de k símbolos (símbolos de información) y el proceso de codificación se realiza agregando la redundancia que convierten el bloque inicial de k símbolos en un bloque de n símbolos (palabra), n > k. De esta manera, al receptor llega una n-tupla y este, conociendo la técnica con la que se ha codificado, puede verificar si han ocurrido cambios en la transmisión e incluso decidir, con bastante confiabilidad, cuál fue la n-tupla enviada. Esto último, se hace utilizando el mismo principio que cuando se corrigen errores en la digitalización de un texto (es decir, suponiendo que el error cometido es pequeño).
Recursos
-
Formatopdf
-
Idioma:español
-
Tamaño:498 kb