II. Fundamentos teóricos de la informática.

💖 ¿Te gusta? Comparte el enlace con tus amigos

Lista de artículos

1. Medición de la información - enfoque alfabético

2. Medición de la información: un enfoque significativo

3. Procesos de información

4. Información

5. Cibernética

6. Información de codificación

7. Tratamiento de la información

8. Transferencia de información

9. Representación de números

10. Sistemas numéricos

11. Almacenamiento de información

Los principales objetos de estudio de la ciencia de la informática son información y procesos de información. La informática como ciencia independiente surgió a mediados del siglo XX, pero el interés científico por la información y la investigación en esta área apareció antes.

A principios del siglo XX, los medios técnicos de comunicación (teléfono, telégrafo, radio) se estaban desarrollando activamente.
En este sentido, aparece la dirección científica "Teoría de la comunicación". Su desarrollo dio lugar a la teoría de la codificación y la teoría de la información, cuyo fundador fue el científico estadounidense C. Shannon. La teoría de la información resolvió el problema. mediciones información transmitido a través de los canales de comunicación. Hay dos enfoques para medir la información: significativo y alfabético.

La tarea más importante que plantea la teoría de la comunicación es la lucha contra la pérdida de información en los canales de transmisión de datos. En el curso de la solución de este problema, se formó una teoría codificación , en cuyo marco se inventaron métodos de presentación de información que permitieron transmitir el contenido del mensaje al destinatario sin distorsión, incluso en presencia de pérdidas en el código transmitido. Estos resultados científicos son de gran importancia incluso hoy en día, cuando el volumen de flujos de información en los canales de comunicación técnica ha crecido en muchos órdenes de magnitud.

El precursor de la informática moderna fue la ciencia de la "Cibernética", fundada por los trabajos de N. Wiener a fines de la década de 1940 y principios de la de 1950. en cibernética hubo una profundización del concepto de información, se determinó el lugar de la información en los sistemas de control en los organismos vivos, en los sistemas sociales y técnicos. La cibernética exploró los principios del control de programas. Simultáneamente con el advenimiento de las primeras computadoras, la cibernética sentó las bases científicas tanto para su desarrollo constructivo como para numerosas aplicaciones.

EVM (computadora) - dispositivo automático diseñado para resolver problemas de información mediante la implementación de procesos de información: almacenamiento, Procesando y transmisión de información. La descripción de los principios y patrones básicos de los procesos de información también se refiere a los fundamentos teóricos de la informática.

La computadora no trabaja con el contenido de información que solo una persona puede percibir, sino con datos que representan información. Por lo tanto, la tarea más importante para la tecnología informática es presentación de información en forma de datos adecuados para su tratamiento. Los datos y los programas se codifican en forma binaria. El procesamiento de cualquier tipo de datos en una computadora se reduce a cálculos con números binarios. Es por eso que la tecnología informática también se llama digital. El concepto de sistemas numéricos, sobre representación de números en la computadora pertenecen a los conceptos básicos de la informática.

El concepto de "lenguaje" proviene de la lingüística. Idioma - esto es sistema de representación simbólica de la información utilizada para su almacenamiento y transmisión. El concepto de lenguaje es uno de conceptos básicos informática, ya que tanto los datos como los programas en una computadora se representan como estructuras simbólicas. El lenguaje de comunicación entre una computadora y una persona se acerca cada vez más a las formas del lenguaje natural.

La teoría de los algoritmos pertenece a los fundamentos fundamentales de la informática. concepto algoritmo introducido en el artículo “Procesamiento de la información”. Este tema se trata en detalle en la quinta sección de la enciclopedia.

1. Medición de la información. Enfoque alfabético

El método alfabético se utiliza para medir cantidad de información en un texto representado como una secuencia de caracteres de algún alfabeto. Este enfoque no está relacionado con el contenido del texto. La cantidad de información en este caso se llama volumen de información del texto, que es proporcional al tamaño del texto - el número de caracteres que componen el texto. A veces, este enfoque para medir la información se denomina enfoque volumétrico.

Cada carácter del texto lleva una cierta cantidad de información. El es llamado símbolo información peso. Por tanto, el volumen de información del texto es igual a la suma de los pesos de información de todos los caracteres que componen el texto.

Aquí se supone que el texto es una cadena consecutiva de caracteres numerados. En la fórmula (1) i 1 denota el peso informativo del primer carácter del texto, i 2 - el peso informativo del segundo carácter del texto, etc.; k- tamaño del texto, es decir el número total de caracteres en el texto.

El conjunto completo de diferentes caracteres utilizados para escribir textos se llama alfabéticamente. El tamaño del alfabeto es un número entero llamado el poder del alfabeto. Hay que tener en cuenta que el alfabeto incluye no solo las letras de un determinado idioma, sino todos los demás caracteres que se pueden utilizar en el texto: números, signos de puntuación, varios corchetes, espacios, etc.

La determinación de los pesos de información de los símbolos puede ocurrir en dos aproximaciones:

1) bajo el supuesto de igual probabilidad (misma frecuencia de ocurrencia) de cualquier carácter en el texto;

2) teniendo en cuenta la diferente probabilidad (diferente frecuencia de ocurrencia) de varios caracteres en el texto.

Aproximación de igual probabilidad de caracteres en un texto

Si asumimos que todos los caracteres del alfabeto en cualquier texto aparecen con la misma frecuencia, entonces el peso de la información de todos los caracteres será el mismo. Dejar norte- poder del alfabeto. Entonces la proporción de cualquier carácter en el texto es 1/ norteª parte del texto. Según la definición de probabilidad (cf. “Medición de la información. enfoque de contenido”) este valor es igual a la probabilidad de ocurrencia de un carácter en cada posición del texto:

Según la fórmula de K. Shannon (ver. “Medición de la información. enfoque de contenido”), la cantidad de información que lleva un símbolo se calcula de la siguiente manera:

yo = log2(1/ pags) = log2 norte(un poco) (2)

Por lo tanto, el peso informativo del símbolo ( i) y la cardinalidad del alfabeto ( norte) están interconectados por la fórmula de Hartley (ver “ Medición de la información. enfoque de contenido” )

2 i = NORTE.

Conocer el peso informativo de un carácter ( i) y el tamaño del texto, expresado en número de caracteres ( k), puede calcular el volumen de información del texto usando la fórmula:

yo= k · i (3)

Esta fórmula es una versión particular de la fórmula (1), en el caso de que todos los símbolos tengan el mismo peso de información.

De la fórmula (2) se sigue que en norte= 2 (alfabeto binario) el peso de la información de un carácter es de 1 bit.

Desde el punto de vista del enfoque alfabético para medir la información 1 bit -es el peso informativo de un carácter del alfabeto binario.

Una unidad de información más grande es byte.

1 byte -es el peso de información de un carácter de un alfabeto con una potencia de 256.

Dado que 256 \u003d 2 8, la conexión entre un bit y un byte se deriva de la fórmula de Hartley:

2 i = 256 = 2 8

De aquí: i= 8 bits = 1 byte

Para representar textos almacenados y procesados ​​en una computadora, se usa con mayor frecuencia un alfabeto con una capacidad de 256 caracteres. Como consecuencia,
1 carácter de dicho texto "pesa" 1 byte.

Además del bit y el byte, también se utilizan unidades más grandes para medir la información:

1 KB (kilobyte) = 2 10 bytes = 1024 bytes,

1 MB (megabyte) = 2 10 KB = 1024 KB,

1 GB (gigabyte) = 2 10 MB = 1024 MB.

Aproximación de diferente probabilidad de ocurrencia de caracteres en el texto

Esta aproximación tiene en cuenta que en un texto real aparecen diferentes caracteres con distintas frecuencias. De ello se deduce que las probabilidades de aparición de diferentes caracteres en una determinada posición del texto son diferentes y, por tanto, sus pesos de información son diferentes.

El análisis estadístico de los textos rusos muestra que la frecuencia de la letra "o" es 0,09. Esto significa que por cada 100 caracteres, la letra “o” aparece en promedio 9 veces. El mismo número indica la probabilidad de que la letra “o” aparezca en una determinada posición del texto: pags o = 0,09. De ello se deduce que el peso de la información de la letra "o" en el texto ruso es igual a:

La letra más rara en los textos es la letra “f”. Su frecuencia es 0.002. De aquí:

De esto se deduce una conclusión cualitativa: el peso informativo de las letras raras es mayor que el peso de las letras frecuentes.

¿Cómo calcular el volumen de información del texto, teniendo en cuenta los diferentes pesos de información de los símbolos del alfabeto? Esto se hace de acuerdo con la siguiente fórmula:

Aquí norte- tamaño (potencia) del alfabeto; Nueva Jersey- número de repeticiones del número de carácter j en el texto; yo j- peso de la información del número de símbolo j.

Enfoque alfabético en el curso de informática en la fundación de la escuela

En el curso de informática de la escuela primaria, la familiarización de los estudiantes con el enfoque alfabético para medir la información se produce con mayor frecuencia en el contexto de la representación informática de la información. La declaración principal dice así:

La cantidad de información se mide por el tamaño del código binario con el que se representa esta información.

Dado que cualquier tipo de información se representa en la memoria de la computadora en forma de código binario, esta definición es universal. Es válido para información simbólica, numérica, gráfica y sonora.

un personaje ( descarga)el código binario lleva 1poco de información

Al explicar el método de medición del volumen de información de un texto en el curso de informática básica, este tema se revela a través de la siguiente secuencia de conceptos: alfabeto-tamaño del código binario de caracteres-volumen de información del texto.

La lógica del razonamiento se desarrolla a partir de ejemplos particulares para obtener una regla general. Deje que haya solo 4 caracteres en el alfabeto de algún idioma. Vamos a denotarlos:, , , . Estos caracteres se pueden codificar utilizando cuatro códigos binarios de dos dígitos: - 00, - 01, - 10, - 11. Aquí, se utilizan todas las opciones de ubicación de dos caracteres por dos, cuyo número es 2 2 = 4. A El alfabeto de 4 caracteres es igual a dos bits.

El siguiente caso especial es un alfabeto de 8 caracteres, cada uno de los cuales se puede codificar con un código binario de 3 bits, ya que el número de ubicaciones de dos caracteres en grupos de 3 es 2 3 = 8. Por lo tanto, el peso de la información de un carácter de un alfabeto de 8 caracteres es de 3 bits. Etc.

Generalizando ejemplos particulares, obtenemos una regla general: usando b- código binario de bits, puede codificar un alfabeto que consta de norte = 2 b- caracteres.

Ejemplo 1. Para escribir el texto solo se utilizan letras minúsculas del alfabeto ruso y se utiliza un “espacio” para separar las palabras. ¿Cuál es el volumen de información de un texto que consta de 2000 caracteres (una página impresa)?

Solución. Hay 33 letras en el alfabeto ruso. Reduciéndolo en dos letras (por ejemplo, "ё" y "é") e ingresando un carácter de espacio, obtenemos una cantidad muy conveniente de caracteres: 32. Usando la aproximación de igual probabilidad de caracteres, escribimos la fórmula de Hartley:

2i= 32 = 2 5

De aquí: i= 5 bits - peso informativo de cada carácter del alfabeto ruso. Entonces el volumen de información de todo el texto es igual a:

yo = 2000 5 = 10,000 un poco

Ejemplo 2. Calcular el volumen de información de un texto con un tamaño de 2000 caracteres, en cuyo registro se utiliza el alfabeto de representación informática de textos con una capacidad de 256.

Solución. En este alfabeto, el peso de información de cada carácter es de 1 byte (8 bits). Por tanto, el volumen de información del texto es de 2000 bytes.

En las tareas prácticas sobre este tema, es importante desarrollar las habilidades de los estudiantes para convertir la cantidad de información en diferentes unidades: bits - bytes - kilobytes - megabytes - gigabytes. Si recalculamos el volumen de información del texto del ejemplo 2 en kilobytes, obtenemos:

2000 bytes = 2000/1024 1,9531 KB

Ejemplo 3. El volumen de un mensaje que contenía 2048 caracteres era 1/512 de un megabyte. ¿Cuál es el tamaño del alfabeto con el que está escrito el mensaje?

Solución. Traduzcamos el volumen de información del mensaje de megabytes a bits. Para ello, multiplicamos este valor dos veces por 1024 (obtenemos bytes) y una vez por 8:

I = 1/512 1024 1024 8 = 16384 bits.

Dado que esta cantidad de información es transportada por 1024 caracteres ( A), entonces un carácter representa:

yo = yo/k= 16 384/1024 = 16 bits.

De ello se deduce que el tamaño (potencia) del alfabeto utilizado es 2 16 = 65 536 caracteres.

Enfoque volumétrico en el curso de informática en la escuela secundaria.

Al estudiar ciencias de la computación en los grados 10 y 11 en el nivel de educación general básica, los estudiantes pueden dejar su conocimiento del enfoque volumétrico para medir información al mismo nivel que se describe anteriormente, es decir, en el contexto de la cantidad de código informático binario.

Al estudiar informática a nivel de perfil, el enfoque volumétrico debe considerarse desde posiciones matemáticas más generales, utilizando ideas sobre la frecuencia de los caracteres en un texto, sobre las probabilidades y la relación de las probabilidades con los pesos de información de los símbolos.

El conocimiento de estos temas es importante para una comprensión más profunda de la diferencia en el uso de la codificación binaria uniforme y no uniforme (ver. “Codificación de información”), para comprender algunas técnicas de compresión de datos (ver. "Compresión de datos") y algoritmos criptográficos (ver "Criptografía" ).

Ejemplo 4. En el alfabeto de la tribu MUMU, solo hay 4 letras (A, U, M, K), un signo de puntuación (punto) y se usa un espacio para separar las palabras. Se calculó que la novela popular "Mumuka" contiene solo 10,000 caracteres, de los cuales: letras A - 4000, letras U - 1000, letras M - 2000, letras K - 1500, puntos - 500, espacios - 1000. Cuánta información contiene ¿libro?

Solución. Dado que el volumen del libro es bastante grande, se puede suponer que la frecuencia de aparición en el texto de cada uno de los símbolos del alfabeto calculado a partir de él es típica para cualquier texto en el idioma MUMU. Calculemos la frecuencia de aparición de cada carácter en todo el texto del libro (es decir, la probabilidad) y los pesos de información de los caracteres

La cantidad total de información en el libro se calcula como la suma de los productos del peso de información de cada símbolo y el número de repeticiones de este símbolo en el libro:

2. Medición de la información. enfoque de contenido

1) una persona recibe un mensaje sobre algún evento; mientras se sabe de antemano incertidumbre del conocimiento persona sobre el evento esperado. La incertidumbre del conocimiento puede expresarse ya sea por el número de posibles variantes del evento, o por la probabilidad de las variantes esperadas del evento;

2) como resultado de recibir el mensaje, se elimina la incertidumbre del conocimiento: de un cierto número posible de opciones, se eligió una;

3) la fórmula calcula la cantidad de información en el mensaje recibido, expresada en bits.

La fórmula utilizada para calcular la cantidad de información depende de las situaciones, que pueden ser dos:

1. Todas las variantes posibles del evento son igualmente probables. Su número es finito e igual. norte.

2. Probabilidades ( pags) las posibles variantes del evento son diferentes y se conocen de antemano:

(p i ), i = 1.. norte. Aquí todavía está norte- el número de posibles variantes del evento.

Eventos increíbles. Si se denota por i la cantidad de información en el mensaje que uno de los norte eventos equiprobables, entonces las cantidades i y norte están interconectados por la fórmula de Hartley:

2i=norte (1)

Valor i medido en bits. De aquí se sigue la conclusión:

1 bit es la cantidad de información en el mensaje sobre uno de dos eventos igualmente probables.

La fórmula de Hartley es una ecuación exponencial. si un i es una cantidad desconocida, entonces la solución de la ecuación (1) será:

yo = registro 2 norte (2)

Las fórmulas (1) y (2) son idénticas entre sí. A veces, en la literatura, la fórmula de Hartley se denomina (2).

Ejemplo 1. ¿Cuánta información contiene el mensaje de que la reina de picas fue tomada de una baraja de cartas?

Hay 32 cartas en una baraja. En una baraja barajada, la pérdida de cualquier carta es un evento equiprobable. si un i- la cantidad de información en el mensaje de que una carta en particular ha caído (por ejemplo, la reina de picas), luego de la ecuación de Hartley:

2 i = 32 = 2 5

De aquí: i= 5 bits.

Ejemplo 2. ¿Cuánta información contiene el mensaje sobre el lanzamiento de una cara con el número 3 en un dado de seis caras?

Considerando la pérdida de cualquier rostro como un evento igualmente probable, escribimos la fórmula de Hartley: 2 i= 6. Por lo tanto: i= registro 2 6 = 2.58496 un poco.

Eventos improbables (enfoque probabilístico)

Si la probabilidad de algún evento es pags, a i(bit) es la cantidad de información en el mensaje de que ha ocurrido este evento, entonces estos valores están relacionados por la fórmula:

2 i = 1/pags (3)

Resolviendo la ecuación exponencial (3) con respecto a i, obtenemos:

i = registro 2 (1/ pags) (4)

La fórmula (4) fue propuesta por K. Shannon, por lo que se llama fórmula de Shannon.

La discusión de la relación entre la cantidad de información de un mensaje y su contenido puede tener lugar a diferentes niveles de profundidad.

Enfoque cualitativo

Enfoque cualitativo, que se puede utilizar en el nivel de propedéutica del curso básico de informática (grados 5 a 7) o en el curso básico (grados 8 a 9).

En este nivel de estudio, se discute la siguiente cadena de conceptos: información - mensaje - informatividad del mensaje.

paquete original: información- este es el conocimiento de las personas que reciben de varios mensajes. La siguiente pregunta es: ¿qué es un mensaje? Mensaje- este es un flujo de información (flujo de datos), que, en el proceso de transmisión de información, llega al sujeto que la recibe. El mensaje es tanto el discurso que estamos escuchando (un mensaje de radio, la explicación de un profesor), como las imágenes visuales que percibimos (una película en la televisión, un semáforo), el texto del libro que estamos leyendo, etc.

pregunta sobre mensaje informativo Debo discutir los ejemplos ofrecidos por el profesor y los estudiantes. Regla: informativollamemosmensaje, que repone el conocimiento humano, es decir, lleva información para él. Para diferentes personas, el mismo mensaje en términos de información puede ser diferente. Si la información es "antigua", es decir, una persona ya sabe esto, o el contenido del mensaje no está claro para una persona, entonces este mensaje no es informativo para él. Informativo es el mensaje que contiene nuevo y comprensible inteligencia.

Ejemplos de mensajes no informativos para un estudiante de 8º grado:

1) "La capital de Francia - París" (no nuevo);

2) “La química coloidal estudia los estados de dispersión de sistemas con un alto grado de fragmentación” (no claro).

Un ejemplo de mensaje informativo (para quien no lo supiera): “La Torre Eiffel tiene una altura de 300 metros y un peso de 9000 toneladas”.

La introducción del concepto de “contenido informativo de un mensaje” es la primera aproximación al estudio del tema de la medición de la información dentro del concepto de contenido. Si el mensaje no es informativo para una persona, entonces la cantidad de información que contiene, desde el punto de vista de esta persona, es igual a cero. La cantidad de información en el mensaje informativo es mayor que cero.

Enfoque cuantitativo en la aproximación de equiprobabilidad

Este enfoque se puede estudiar en la versión avanzada del curso básico en la escuela básica o al estudiar informática en los grados 10 y 11 en el nivel básico.

Se considera la siguiente cadena de conceptos: eventos equiprobables - incertidumbre del conocimiento - bit como unidad de información - fórmula de Hartley - solución de la ecuación exponencial para N igual a potencias enteras de dos.

Revelando el concepto equiprobabilidad, se debe construir sobre la representación intuitiva de los niños, respaldándola con ejemplos. Los eventos son igualmente probablessi ninguno de ellos tiene una ventaja sobre los demás.

Habiendo introducido la definición particular de un bit que se dio anteriormente, entonces debería generalizarse:

Un mensaje que reduce la incertidumbre del conocimiento por un factor de 2 lleva 1 bitinformación.

Esta definición está respaldada por ejemplos de mensajes sobre un evento de cuatro (2 bits), de ocho (3 bits), etc.

En este nivel, no se pueden discutir opciones de valores. norte, no igual a potencias enteras de dos, para no enfrentar el problema de calcular logaritmos, que aún no se han estudiado en el curso de matemáticas. Si los niños tienen preguntas, por ejemplo: "¿Cuánta información contiene el mensaje sobre el resultado de lanzar un dado de seis caras?", entonces la explicación se puede construir de la siguiente manera. De la ecuación de Hartley: 2 i= 6. Dado que 2 2< 6 < 2 3 , следовательно, 2 < i < 3. Затем сообщить более точное значение (с точностью до пяти знаков после запятой), что i= 2,58496 bits. Tenga en cuenta que con este enfoque, la cantidad de información se puede expresar como un valor fraccionario.

Enfoque probabilístico para medir la información

Se puede estudiar en los grados 10 y 11 como parte de un curso de educación general a un nivel especializado o en un curso electivo sobre los fundamentos matemáticos de la informática. Aquí debe introducirse una definición matemáticamente correcta de probabilidad. Además, los estudiantes deben conocer la función logaritmo y sus propiedades, ser capaces de resolver ecuaciones exponenciales.

Introduciendo el concepto de probabilidad, se debe informar que la probabilidad de un evento es un valor que puede tomar valores de cero a uno. La probabilidad de un evento imposible es cero.(por ejemplo: “mañana el sol no saldrá por el horizonte”), la probabilidad de un cierto evento es igual a uno(por ejemplo: “Mañana saldrá el sol por el horizonte”).

La siguiente disposición: la probabilidad de algún evento está determinada por múltiples observaciones (medidas, pruebas). Tales medidas se llaman estadísticas. Y cuantas más mediciones se realicen, con mayor precisión se determinará la probabilidad de un evento.

La definición matemática de probabilidad es: probabilidades igual a la razón del número de resultados que favorecen este evento al número total de resultados igualmente posibles.

Ejemplo 3. Dos rutas de autobús se detienen en una parada de autobús: No. 5 y No. 7. Se le da al estudiante la tarea: determinar cuánta información contiene el mensaje de que el autobús No. 5 se ha acercado a la parada, y cuánto la información está en el mensaje de que el autobús No. 5 se ha acercado al 7.

El estudiante hizo la investigación. Durante toda la jornada laboral calculó que los buses se acercaron a la parada 100 veces. De estos, el autobús número 5 se acercó 25 veces y el autobús número 7 se acercó a 75. Suponiendo que los autobuses circulan con la misma frecuencia otros días, el estudiante calculó la probabilidad de que el autobús número 5 llegue a la parada: pags 5 = 25/100 = 1/4, y la probabilidad de que aparezca el autobús #7 es: pags 7 = 75/100 = 3/4.

Por lo tanto, la cantidad de información en el mensaje sobre el autobús número 5 es: i 5 = registro 2 4 = 2 bits. La cantidad de información en el mensaje sobre el autobús número 7 es:

i 7 \u003d log 2 (4/3) \u003d log 2 4 - log 2 3 \u003d 2 - 1.58496 \u003d 0.41504 un poco.

Observe el siguiente resultado cualitativo: cuanto menor es la probabilidad de un evento, mayor es la cantidad de información en el mensaje al respecto. La cantidad de información sobre un determinado evento es cero. Por ejemplo, el mensaje “Mañana por la mañana llegará” es confiable y su probabilidad es igual a uno. De la fórmula (3) se sigue: 2 i= 1/1 = 1. Por lo tanto, i= 0 bits.

La fórmula de Hartley (1) es un caso especial de la fórmula (3). Si está disponible norte eventos igualmente probables (el resultado de lanzar una moneda, un dado, etc.), entonces la probabilidad de cada variante posible es igual a pags = 1/norte. Sustituyendo en (3), obtenemos nuevamente la fórmula de Hartley: 2 i = NORTE. Si en el ejemplo 3 autobuses #5 y #7 se detuvieran 100 veces cada 50 veces, entonces la probabilidad de que cada uno de ellos aparezca sería igual a 1/2. Por lo tanto, la cantidad de información en el mensaje sobre la llegada de cada bus es i= registro 2 2 = 1 bit. Llegamos a la conocida variante de contenido de información del mensaje sobre uno de dos eventos igualmente probables.

Ejemplo 4. Considere otra versión del problema del autobús. En la parada paran los autobuses n.º 5 y n.º 7. El mensaje de que el autobús n.º 5 se ha acercado a la parada contiene 4 bits de información. La probabilidad de que aparezca el autobús número 7 en la parada es dos veces menor que la probabilidad de que aparezca el autobús número 5. ¿Cuántos bits de información contiene el mensaje sobre la aparición del autobús número 7 en la parada?

Escribimos la condición del problema de la siguiente forma:

yo 5 = 4 bits, pags 5 = 2 pags 7

Recuerde la relación entre probabilidad y cantidad de información: 2 i = 1/pags

De aquí: pags = 2 –i

Sustituyendo en la igualdad de la condición del problema, obtenemos:

La conclusión se deriva del resultado obtenido: una disminución en la probabilidad de un evento en 2 veces aumenta el contenido de información del mensaje en 1 bit. La regla opuesta también es obvia: un aumento en la probabilidad de un evento en 2 veces reduce el contenido de información del mensaje en 1 bit. Conociendo estas reglas, el problema anterior podría resolverse “en la mente”.

3. Procesos de información

El objeto de estudio de la ciencia de la informática es información y procesos de información. Como no existe una única definición generalmente aceptada de información (cf. "Información"), tampoco hay unidad en la interpretación del concepto de “procesos de información”.

Abordemos la comprensión de este concepto desde una posición terminológica. Palabra proceso representa algún evento que ocurre en el tiempo: litigio, proceso de producción, proceso educativo, proceso de crecimiento de organismos vivos, proceso de refinación de petróleo, proceso de combustión de combustible, proceso de vuelo de naves espaciales, etc. Cada proceso está asociado con algún comportamiento realizados por el hombre, las fuerzas de la naturaleza, los dispositivos técnicos, así como debido a su interacción.

Todo proceso tiene objeto de influencia Palabras clave: acusado, estudiantes, petróleo, combustible, nave espacial. Si el proceso está asociado con la actividad intencional de una persona, entonces esa persona puede llamarse ejecutor de procesos: juez, maestro, astronauta. Si el proceso se lleva a cabo con la ayuda de un dispositivo automático, entonces es el ejecutor del proceso: un reactor químico, una estación espacial automática.

Obviamente, en los procesos de información el objeto de la influencia es la información. En el libro de texto S.A. Beshenkova, E. A. Rakitina da la siguiente definición: “En la forma más general, el proceso de información se define como un conjunto de acciones secuenciales (operaciones) realizadas sobre la información (en forma de datos, información, hechos, ideas, hipótesis, teorías, etc.) para obtener cualquier resultado (objetivos de logro)".

Un análisis más detallado del concepto de "procesos de información" depende del enfoque del concepto de información, de la respuesta a la pregunta: "¿Qué es la información?". Si acepta atributivo punto de vista de la información (cf. "Información"), entonces debe reconocerse que los procesos de información ocurren tanto en la naturaleza viva como en la inanimada. Por ejemplo, como resultado de la interacción física entre la Tierra y el Sol, entre los electrones y el núcleo de un átomo, entre el océano y la atmósfera. Desde la posición funcional Los procesos de información conceptual ocurren en los organismos vivos (plantas, animales) y en su interacción.

DE antropocéntrico punto de vista, el ejecutor de los procesos de información es una persona. Los procesos de información son una función de la conciencia humana (pensamiento, intelecto). Una persona puede llevarlos a cabo de forma independiente, así como con la ayuda de herramientas de actividad de información creadas por él.

Cualquier actividad de información arbitrariamente compleja de una persona se reduce a tres tipos principales de acciones con información: guardar, recibir / transmitir, procesar. Habitualmente, en lugar de “recepción-transmisión”, se dice simplemente “transmisión”, entendiendo este proceso como uno bidireccional: transmisión de fuente a receptor (sinónimo de “transporte”).

El almacenamiento, la transmisión y el procesamiento de información son los principales tipos de procesos de información.

La implementación de estas acciones con información está asociada a su presentación en forma de datos. Todo tipo de herramientas de la actividad de la información humana (por ejemplo: papel y bolígrafo, canales técnicos de comunicación, dispositivos informáticos, etc.) se utilizan para el almacenamiento, procesamiento y transmisión. datos.

Si analizamos las actividades de cualquier organización (el departamento de personal de una empresa, contabilidad, un laboratorio científico) que trabaja con información “a la antigua”, sin el uso de computadoras, entonces se requieren tres tipos de medios para garantizar su actividades:

Papel e instrumentos de escritura (bolígrafos, máquinas de escribir, instrumentos de dibujo) para fijar información con fines de almacenamiento;

Instalaciones de comunicación (mensajes, teléfonos, correo) para recibir y transmitir información;

Herramientas informáticas (cuentas, calculadoras) para el procesamiento de la información.

Hoy en día, todo este tipo de actividades de información se realizan utilizando tecnología informática: los datos se almacenan en soportes digitales, la transmisión se realiza a través del correo electrónico y otros servicios de redes informáticas, los cálculos y otros tipos de procesamiento se realizan en una computadora.

La composición de los principales dispositivos de una computadora está determinada precisamente por el hecho de que la computadora está diseñada para llevar a cabo almacenamiento, Procesando y transmisión de datos. Para ello, incluye memoria, procesador, canales internos y dispositivos externos de entrada/salida (ver. "Un ordenador").

Para separar terminológicamente los procesos de trabajo con información que ocurren en la mente humana y los procesos de trabajo con datos que ocurren en sistemas informáticos, A.Ya. Friedland sugiere llamarlos de manera diferente: el primero - procesos de información, el segundo - procesos de información.

La cibernética ofrece otro enfoque para la interpretación de los procesos de información. Los procesos de información ocurren en varios sistemas de control que tienen lugar en la vida silvestre, en el cuerpo humano, en los sistemas sociales, en los sistemas técnicos (incluyendo una computadora). Por ejemplo, el enfoque cibernético se aplica en neurofisiología (cf. "Información"), donde la gestión de los procesos fisiológicos en el cuerpo de un animal y una persona, que ocurren a nivel inconsciente, se considera como un proceso de información. En las neuronas (células cerebrales) almacenado y procesada la información es transportada a lo largo de las fibras nerviosas transmisión información en forma de señales de naturaleza electroquímica. La genética ha establecido que la información hereditaria almacenado en las moléculas de ADN que forman los núcleos de las células vivas. Determina el programa para el desarrollo del organismo (es decir, controla este proceso), que se realiza en un nivel inconsciente.

Así, en la interpretación cibernética, los procesos de información se reducen al almacenamiento, transmisión y procesamiento de información presentada en forma de señales, códigos de diversa naturaleza.

En cualquier etapa del estudio de la informática en la escuela, las ideas sobre los procesos de información tienen una función metodológica sistematizadora. Al estudiar el dispositivo de una computadora, los estudiantes deben obtener una comprensión clara de qué dispositivos se utilizan para almacenar, procesar y transferir datos. Al estudiar programación, los estudiantes deben prestar atención al hecho de que el programa funciona con datos almacenados en la memoria de la computadora (como el programa mismo), que los comandos del programa determinan las acciones del procesador para procesar datos y la acción de los dispositivos de entrada y salida. para recibir y transmitir datos. Al dominar las tecnologías de la información, se debe prestar atención al hecho de que estas tecnologías también se enfocan en el almacenamiento, procesamiento y transmisión de información.

Ver artículos “ Almacenamiento de datos”, “Procesamiento de datos”, “Transferencia de información” 2.

4. Información

Origen del término “información”

La palabra "información" proviene del latín información, que se traduce como aclaración, presentación. En el diccionario explicativo de V.I. Dahl no tiene la palabra "información". El término "información" entró en uso en el habla rusa a partir de mediados del siglo XX.

En mayor medida, el concepto de información debe su difusión a dos áreas científicas: teoría de la comunicación y cibernética. El resultado del desarrollo de la teoría de la comunicación fue Teoría de la información fundada por Claude Shannon. Sin embargo, K. Shannon no dio una definición de información, al mismo tiempo, definiendo cantidad de información. La teoría de la información se dedica a resolver el problema de medir la información.

En la ciencia cibernética Fundado por Norbert Wiener, el concepto de información es central (cf. "Cibernética" 2). Generalmente se acepta que fue N. Wiener quien introdujo el concepto de información en el uso científico. Sin embargo, en su primer libro sobre cibernética, N. Wiener no define la información. “ La información es información, no materia ni energía.”, escribió Viena. Así, el concepto de información, por un lado, se opone a los conceptos de materia y energía, por otro lado, se equipara a estos conceptos en cuanto a su grado de generalidad y fundamentalidad. Por lo tanto, al menos está claro que la información es algo que no se puede atribuir ni a la materia ni a la energía.

información en filosofía

La ciencia de la filosofía se ocupa de comprender la información como un concepto fundamental. Según uno de los conceptos filosóficos, La información es una propiedad de todo., todos los objetos materiales del mundo. Este concepto de información se llama atributivo (la información es un atributo de todos los objetos materiales). La información en el mundo surgió junto con el Universo. En este sentido la información es una medida del orden, la estructuración de cualquier sistema material. Los procesos de desarrollo del mundo desde el caos inicial que vino después del "Big Bang" hasta la formación de sistemas inorgánicos, luego los sistemas orgánicos (vivos) están asociados con un aumento en el contenido de información. Este contenido es objetivo, independiente de la conciencia humana. Un trozo de carbón contiene información sobre eventos que tuvieron lugar en la antigüedad. Sin embargo, solo una mente inquisitiva puede extraer esta información.

Otro concepto filosófico de la información se llama funcional. Según el enfoque funcional, la información apareció con el surgimiento de la vida, ya que está asociada con el funcionamiento de sistemas complejos de autoorganización, que incluyen organismos vivos y la sociedad humana. También puede decir esto: la información es un atributo inherente solo a la naturaleza viva. Esta es una de las características esenciales que separan lo vivo de lo no vivo en la naturaleza.

El tercer concepto filosófico de información es antropocéntrico, según la cual la información existe sólo en la conciencia humana, en la percepción humana. La actividad informativa es inherente sólo al hombre, se produce en los sistemas sociales. Al crear tecnología de la información, una persona crea herramientas para su actividad de información.

Podemos decir que el uso del concepto de "información" en la vida cotidiana se da en un contexto antropocéntrico. Es natural que cualquiera de nosotros perciba la información como mensajes intercambiados entre personas. Por ejemplo, los medios de comunicación de masas - los medios de comunicación de masas están destinados a difundir mensajes, noticias entre la población.

información en biología

En el siglo XX, el concepto de información impregna la ciencia en todas partes. Los procesos de información en la naturaleza viva son estudiados por la biología. La neurofisiología (sección de biología) estudia los mecanismos de la actividad nerviosa de animales y humanos. Esta ciencia construye un modelo de procesos de información que ocurren en el cuerpo. La información procedente del exterior se convierte en señales de naturaleza electroquímica, que se transmiten desde los órganos de los sentidos a lo largo de las fibras nerviosas hasta las neuronas (células nerviosas) del cerebro. El cerebro transmite información de control en forma de señales de la misma naturaleza a los tejidos musculares, controlando así los órganos del movimiento. El mecanismo descrito está en buen acuerdo con el modelo cibernético de N. Wiener (ver. "Cibernética" 2).

En otra ciencia biológica, la genética, se utiliza el concepto de información hereditaria incrustada en la estructura de las moléculas de ADN presentes en los núcleos de las células de los organismos vivos (plantas, animales). La genética ha demostrado que esta estructura es una especie de código que determina el funcionamiento de todo el organismo: su crecimiento, desarrollo, patologías, etc. A través de las moléculas de ADN, la información hereditaria se transmite de generación en generación.

Al estudiar informática en la escuela básica (curso básico), no se debe profundizar en la complejidad del problema de determinar la información. El concepto de información se da en un contexto significativo:

Información - este es el significado, el contenido de los mensajes recibidos por una persona del mundo exterior a través de sus sentidos.

El concepto de información se revela a través de la cadena:

mensaje - significado - información - conocimiento

Una persona percibe mensajes con la ayuda de sus sentidos (principalmente a través de la vista y el oído). Si una persona entiende sentido encerrado en un mensaje, entonces podemos decir que este mensaje lleva a una persona información. Por ejemplo, un mensaje en un idioma desconocido no contiene información para una persona determinada, pero un mensaje en un idioma nativo es comprensible y, por lo tanto, informativo. La información percibida y almacenada en la memoria se repone conocimiento persona. Nuestro conocimiento- esta es una información sistematizada (relacionada) en nuestra memoria.

Al revelar el concepto de información desde el punto de vista de un enfoque significativo, se debe partir de las ideas intuitivas sobre la información que tienen los niños. Es recomendable realizar una conversación en forma de diálogo, formulando preguntas a los estudiantes que sean capaces de responder. Las preguntas, por ejemplo, se pueden hacer en el siguiente orden.

Cuéntanos ¿de dónde obtienes tu información?

Probablemente escuchará de nuevo:

De libros, programas de radio y televisión. .

Por la mañana escuché el pronóstico del tiempo en la radio .

Aprovechando esta respuesta, el profesor lleva a los estudiantes a la conclusión final:

Entonces, al principio no sabías cómo sería el clima, pero después de escuchar la radio, comenzaste a saber. Por lo tanto, habiendo recibido información, ¡recibiste nuevos conocimientos!

Así, el profesor, junto con los alumnos, llega a la definición: informaciónpara una persona, esta es información que complementa el conocimiento de una persona, que recibe de varias fuentes. Además, en numerosos ejemplos familiares para los niños, esta definición debe corregirse.

Habiendo establecido una conexión entre la información y el conocimiento de las personas, inevitablemente se llega a la conclusión de que la información es el contenido de nuestra memoria, porque la memoria humana es el medio para almacenar el conocimiento. Es razonable llamar a esa información información operativa interna que posee una persona. Sin embargo, las personas almacenan información no solo en su propia memoria, sino también en registros en papel, en medios magnéticos, etc. Dicha información puede llamarse externa (en relación con una persona). Para que una persona lo use (por ejemplo, para preparar un plato según una receta), primero debe leerlo, es decir. convertirlo en una forma interna, y luego realizar algunas acciones.

La cuestión de la clasificación del conocimiento (y por tanto de la información) es muy compleja. En la ciencia, hay diferentes enfoques al respecto. Los especialistas en el campo de la inteligencia artificial están especialmente comprometidos con este tema. En el marco del curso básico, basta con limitarnos a dividir el conocimiento en declarativo y procesal. La descripción del conocimiento declarativo se puede iniciar con las palabras: “Sé que…”. Descripción del conocimiento procedimental - con las palabras: "Sé cómo ...". Es fácil dar ejemplos para ambos tipos de conocimiento e invitar a los niños a que presenten sus propios ejemplos.

El profesor debe ser muy consciente de la importancia propedéutica de discutir estos temas para la futura familiarización de los estudiantes con el dispositivo y el funcionamiento de la computadora. Una computadora, como una persona, tiene una memoria interna, operativa, y una externa, a largo plazo. La división del conocimiento en declarativo y procedimental en el futuro puede vincularse con la división de la información informática en datos - información declarativa y programas - información procedimental. El uso del método didáctico de analogía entre la función de información de una persona y una computadora permitirá a los estudiantes comprender mejor la esencia del dispositivo y el funcionamiento de una computadora.

Con base en la posición "el conocimiento humano es información almacenada", el maestro informa a los estudiantes que los olores, los sabores y las sensaciones táctiles (táctiles) también transmiten información a una persona. La razón de esto es muy simple: dado que recordamos olores y sabores familiares, reconocemos objetos familiares por el tacto, luego estas sensaciones se almacenan en nuestra memoria y, por lo tanto, son información. De ahí la conclusión: con la ayuda de todos sus sentidos, una persona recibe información del mundo exterior.

Tanto desde un punto de vista sustantivo como metodológico, es muy importante distinguir entre el significado de los conceptos “ información" y " datos”. A la representación de la información en cualquier sistema de signos(incluidos los utilizados en ordenadores) se debe usar el terminodatos". PERO información- esto es el significado contenido en los datos, incrustado en ellos por una persona y comprensible solo para una persona.

Una computadora trabaja con datos: recibe datos de entrada, los procesa y transmite datos de salida a una persona: resultados. La interpretación semántica de los datos la realiza una persona. Sin embargo, en el habla coloquial, en la literatura, se suele decir y escribir que una computadora almacena, procesa, transmite y recibe información. Esto es cierto si la computadora no se separa de la persona, considerándola como una herramienta con la cual una persona realiza procesos de información.

5. Cibernética

La palabra “cibernética” es de origen griego y significa literalmente el arte de controlar.

En el siglo IV a. en los escritos de Platón, este término se usaba para denotar administración en un sentido general. En el siglo XIX, A. Ampère sugirió llamar a la cibernética la ciencia de la gestión de la sociedad humana.

En una interpretación moderna cibernética- una ciencia que estudia las leyes generales de control y relaciones en los sistemas organizados (máquinas, organismos vivos, en la sociedad).

El surgimiento de la cibernética como ciencia independiente está asociado con la publicación de los libros del científico estadounidense Norbert Wiener "Cybernetics, or Control and Communication in Animal and Machine" en 1948 y "Cybernetics and Society" en 1954.

El principal descubrimiento científico de la cibernética fue la justificación unidad de leyes de control en sistemas naturales y artificiales. N. Wiener llegó a esta conclusión al construir modelo de información procesos de gestión.

Norbert Wiener (1894–1964), EE. UU.

Un esquema similar se conocía en la teoría del control automático. Wiener lo generalizó a todo tipo de sistemas, abstrayéndose de mecanismos de comunicación específicos, considerando esta conexión como informacional.

Esquema de control de retroalimentación

El canal de comunicación directo transmite información de control - comandos de control. por canal retroalimentación se transmite información sobre el estado del objeto controlado, sobre su reacción a la acción de control, así como sobre el estado del entorno externo, que suele ser un factor esencial en la gestión.

La cibernética desarrolla el concepto de información como el contenido de señales transmitidas a través de canales de comunicación. La cibernética desarrolla el concepto de algoritmo como información de control que debe tener un objeto de control para realizar su trabajo.

El surgimiento de la cibernética ocurre simultáneamente con la creación de las computadoras electrónicas. La conexión entre las computadoras y la cibernética es tan estrecha que estos conceptos se identificaron a menudo en la década de 1950. Las computadoras fueron llamadas máquinas cibernéticas.

La conexión entre las computadoras y la cibernética existe en dos aspectos. En primer lugar, una computadora es una máquina autónoma en la que el papel de administrador lo desempeña dispositivo de control, disponible en el procesador, y todos los demás dispositivos son objetos de control. La comunicación directa y de retroalimentación se realiza a través de canales de información, y el algoritmo se presenta en forma de programa en lenguaje máquina (un lenguaje “entendible” por el procesador) almacenado en la memoria de la computadora.

En segundo lugar, con la invención de la computadora, se abrió la perspectiva de usar la máquina como objeto de control en una variedad de sistemas. Se hace posible crear sistemas complejos con control de programa, para transferir muchos tipos de actividad humana a dispositivos automáticos.

El desarrollo de la línea "cibernética - computadoras" condujo en la década de 1960 al surgimiento de la ciencia. informatica con un sistema más desarrollado de conceptos relacionados con el estudio de la información y los procesos de información.

En la actualidad, las disposiciones generales de la cibernética teórica están adquiriendo un significado filosófico en mayor medida. Al mismo tiempo, se desarrollan activamente áreas aplicadas de la cibernética, relacionadas con el estudio y creación de sistemas de control en diversas áreas temáticas: cibernética técnica, cibernética biomédica, cibernética económica. Con el desarrollo de los sistemas informáticos de aprendizaje, podemos hablar del surgimiento de la cibernética pedagógica.

Hay varias formas de incluir preguntas de cibernética en el curso de educación general. Una forma es a través de la línea de algoritmización. Algoritmo considerado como información de control en el modelo cibernético del sistema de control. En este contexto, se revela el tema de la cibernética.

Otra forma es incluir el tema de la cibernética en la línea significativa de modelado. revisando proceso de gestión como un proceso de información complejo da una idea de Esquema de N. Wiener cómo modelos de tal proceso. En la versión de la norma educativa para la escuela básica (2004), este tema está presente en el contexto de la modelación: “modelo cibernético de procesos de gestión”.

En la obra de A.A. Kuznetsova, S.A. Beshenkova et al., “Curso continuo de informática” nombró tres áreas principales del curso de informática escolar: modelado de información, procesos de información y bases de informacion de gestion. Las líneas de contenido son los detalles de las direcciones principales. Por lo tanto, el tema cibernético, el tema de la gestión, recibe una importancia aún mayor que la línea de contenido. Este es un tema multifacético que le permite tocar los siguientes temas:

Elementos de cibernética teórica: modelo cibernético de control retroalimentado;

Elementos de cibernética aplicada: estructura de sistemas informáticos de control automático (sistemas con control de programa); cita sistemas automatizados administración;

Fundamentos de la teoría de algoritmos.

Elementos de la cibernética teórica

Hablando del modelo de control cibernético, el docente debe ilustrarlo con ejemplos que sean familiares y comprensibles para los estudiantes. En este caso, cabe destacar los principales elementos del sistema de control cibernético: objeto de control, objeto gestionado, canales directos y de retroalimentación.

Comencemos con ejemplos obvios. Por ejemplo, un conductor y un coche. El conductor es el administrador, el automóvil es el objeto controlado. Canal de comunicación directo - sistema de control del automóvil: pedales, volante, palancas, llaves, etc. Canales de retroalimentación: instrumentos en el panel de control, vista desde las ventanas, oído del conductor. Cualquier acción sobre los mandos se puede considerar como información transmitida: “aumentar la velocidad”, “disminuir la velocidad”, “girar a la derecha”, etc. La información transmitida a través de los canales de retroalimentación también es necesaria para una gestión exitosa. Ofrezca a los estudiantes una tarea: ¿qué sucede si se apaga uno de los canales directos o de retroalimentación? La discusión de tales situaciones suele ser muy animada.

El control de retroalimentación se llama control adaptativo. Las acciones del administrador se adaptan (es decir, se ajustan) al estado del objeto de control, el entorno.

El ejemplo más cercano a los estudiantes de gestión en un sistema social: un profesor que gestiona el proceso de aprendizaje en el aula. Discuta varias formas de control del maestro sobre los estudiantes: habla, gestos, expresiones faciales, notas en la pizarra. Pida a los estudiantes que enumeren diferentes formas de retroalimentación; explique cómo el profesor adapta el curso de la lección en función de los resultados de la retroalimentación, dé ejemplos de dicha adaptación. Por ejemplo, los estudiantes no hicieron frente a la tarea propuesta: el maestro se ve obligado a repetir la explicación.

Al estudiar este tema en la escuela secundaria, se pueden considerar las formas de gestión en los grandes sistemas sociales: gestión de una empresa por parte de la administración, gestión del país por órganos estatales, etc. Aquí es útil utilizar material del curso de estudios sociales. Al analizar los mecanismos de feed-forward y feedback en tales sistemas, llame la atención de los estudiantes sobre el hecho de que en la mayoría de los casos hay muchos canales de feed-forward y feedback. Se duplican para aumentar la fiabilidad del sistema de control.

Algoritmos y control

Este tema le permite revelar el concepto de un algoritmo desde un punto de vista cibernético. La lógica de expansión es la siguiente. La gestión es un proceso con un propósito. Debe proporcionar un cierto comportamiento del objeto de control, el logro de un objetivo determinado. Y para eso, debe haber un plan de manejo. Este plan se implementa a través de una secuencia de comandos de control transmitidos a través de un enlace directo. Tal secuencia de comandos se llama algoritmo de control.

Algoritmo de control es componente de información sistemas de control. Por ejemplo, un maestro enseña una lección de acuerdo con un plan predeterminado. El conductor conduce el automóvil a lo largo de una ruta predeterminada.

En los sistemas de control, donde el papel del gerente lo realiza una persona, el algoritmo de control puede cambiar, refinarse en el proceso de trabajo. El conductor no puede planificar con antelación cada una de sus acciones mientras conduce; El maestro ajusta el plan de la lección a medida que avanza. Si el proceso está controlado por un dispositivo automático, entonces se debe incorporar un algoritmo de control detallado de antemano en alguna forma formalizada. En ese caso se llama programa de gestión. Para almacenar el programa, el dispositivo de control automático debe tener memoria de programa.

Este tema debe explorar el concepto sistema autogestionado. Este es un objeto único, un organismo, en el que están presentes todos los componentes de los sistemas de control mencionados anteriormente: control y partes controladas (órganos), comunicación de información directa y de retroalimentación, información de control: algoritmos, programas y memoria para almacenarla. Tales sistemas son organismos vivos. El más perfecto de ellos es el hombre. El hombre se controla a sí mismo. El principal órgano de control es el cerebro humano, controlado: todas las partes del cuerpo. Hay gestión consciente(Hago lo que quiero) y como subconsciente(gestión de procesos fisiológicos). Procesos similares ocurren en animales. Sin embargo, la proporción de control consciente en los animales es menor que en los humanos debido a un mayor nivel de desarrollo intelectual humano.

La creación de sistemas artificiales de autogobierno es una de las tareas más difíciles de la ciencia y la tecnología. La robótica es un ejemplo de tal dirección científica y técnica. Combina muchas áreas de la ciencia: cibernética, inteligencia artificial, medicina, modelado matemático, etc.

Elementos de Cibernética Aplicada

Este tema puede ser divulgado ya sea en una versión profundizada del estudio del curso básico de informática, o a nivel de perfil en bachillerato.

A las tareas cibernética técnica incluye el desarrollo y la creación de sistemas de control técnico en empresas manufactureras, en laboratorios de investigación, en transporte, etc. Dichos sistemas se denominan sistemas con Control automático - ACS . Se utilizan computadoras o controladores especializados como dispositivo de control en el ACS.

El modelo de control cibernético en relación con el ACS se muestra en la figura.

Esquema del sistema de control automático.

Este es un sistema técnico cerrado que funciona sin intervención humana. La persona (programador) preparó programa de gestión, lo trajo a la memoria de la computadora. Entonces el sistema funciona automáticamente.

Teniendo en cuenta este tema, los estudiantes deben prestar atención al hecho de que ya se han encontrado con la conversión de información de analógico a digital y viceversa (conversión DAC - ADC) en otros temas o se volverán a encontrar. Por el mismo principio, un módem funciona en redes informáticas, una tarjeta de sonido cuando ingresa / emite sonido (ver. “ presentación sonora” 2).En este sistema, una señal eléctrica analógica que pasa a través del canal de retroalimentación de los sensores del dispositivo controlado mediante el uso Conversor analógico a digital(CAD), se convierte en datos digitales discretos, entrando a la computadora. Funciona en línea directa. DAC - convertidor de digital a analógico, que la realiza reverso conversión: datos digitales provenientes de la computadora en una señal eléctrica analógica suministrada a los nodos de entrada del dispositivo controlado.

Otra dirección de la cibernética aplicada: sistemas de control automatizado (ACS). ACS es un sistema hombre-máquina. Por regla general, los sistemas de control automatizados se centran en la gestión de las actividades de los equipos de producción y las empresas. Estos son sistemas de recopilación, almacenamiento y procesamiento de información diversa necesaria para el funcionamiento de la empresa. Por ejemplo, datos sobre flujos financieros, disponibilidad de materias primas, volúmenes de productos terminados, información del personal, etc. etc. El objetivo principal de dichos sistemas es proporcionar de manera rápida y precisa a los gerentes de la empresa la información necesaria para tomar decisiones de gestión.

Las tareas resueltas mediante sistemas de control automatizado pertenecen al área cibernética económica. Como regla general, la base técnica de tales sistemas son las redes informáticas locales. ACS utiliza una variedad de tecnologías de la información: bases de datos, gráficos por computadora, modelado por computadora, sistemas expertos, etc.

6. Información de codificación

El código -un sistema de signos convencionales (símbolos) para la transmisión, procesamiento y almacenamiento de información (mensajes).

Codificación - el proceso de presentar información (mensajes) en forma de código.

El conjunto completo de caracteres utilizados para la codificación se denomina alfabeto de codificación. Por ejemplo, en la memoria de una computadora, cualquier información se codifica utilizando un alfabeto binario que contiene solo dos caracteres: 0 y 1.

Los fundamentos científicos de la codificación fueron descritos por K. Shannon, quien estudió los procesos de transmisión de información a través de canales de comunicación técnica ( teoría de la comunicación, teoría de la codificación). Con este enfoque codificación entendido en un sentido más estricto: transición de representar información en un sistema de símbolos a representarla en otro sistema de símbolos. Por ejemplo, convertir un texto ruso escrito en código Morse para su transmisión por telégrafo o radio. Tal codificación está relacionada con la necesidad de adaptar el código a los medios técnicos de trabajo con la información utilizada (ver “ Transferencia de información” 2).

Decodificación - el proceso de convertir el código de vuelta a la forma del sistema de caracteres original, es decir. obtener el mensaje original. Por ejemplo: traducción del código Morse a un texto escrito en ruso.

En términos más generales, la decodificación es el proceso de recuperación del contenido de un mensaje codificado. Con este enfoque, el proceso de escribir un texto utilizando el alfabeto ruso puede considerarse como una codificación y leerlo como una decodificación.

Propósitos de la codificación y métodos de codificación

La codificación de un mismo mensaje puede ser diferente. Por ejemplo, estamos acostumbrados a escribir texto en ruso usando el alfabeto ruso. Pero lo mismo se puede hacer usando el alfabeto inglés. A veces, debe hacer esto enviando un SMS en un teléfono móvil que no tiene letras rusas, o enviando un correo electrónico en ruso desde el extranjero si no hay un software rusificado en la computadora. Por ejemplo, la frase: "¡Hola, querida Sasha!" Tengo que escribir así: "¡Zdravstvui, querida Sasha!".

Hay otras formas de codificar el habla. Por ejemplo, taquigrafía - forma rápida de grabar el lenguaje hablado. Es propiedad de solo unas pocas personas especialmente capacitadas: taquígrafos. El taquígrafo logra escribir el texto sincrónicamente con el discurso de la persona que habla. En la transcripción, un ícono denotaba una palabra o frase completa. Solo un taquígrafo puede descifrar (decodificar) una transcripción.

Los ejemplos dados ilustran la siguiente regla importante: se pueden utilizar diferentes formas de codificar la misma información; su elección depende de una serie de factores: propósito de la codificación, condiciones, fondos disponibles. Si necesita escribir el texto al ritmo del discurso, usamos taquigrafía; si es necesario transferir el texto al extranjero, usamos el alfabeto inglés; si es necesario presentar el texto en una forma comprensible para una persona rusa alfabetizada, lo escribimos de acuerdo con las reglas de la gramática del idioma ruso.

Otra circunstancia importante: la elección de cómo se codifica la información puede estar relacionada con la forma prevista de procesarla. Mostrémoslo en un ejemplo de representación de números: la información cuantitativa. Usando el alfabeto ruso, puede escribir el número "treinta y cinco". Usando el alfabeto del sistema de numeración decimal árabe, escribimos: “35”. El segundo método no solo es más corto que el primero, sino también más conveniente para realizar cálculos. ¿Qué entrada es más conveniente para realizar cálculos: "treinta y cinco por ciento veintisiete" o "35 x 127"? Obviamente la segunda.

Sin embargo, si es importante mantener el número sin distorsión, es mejor escribirlo en forma de texto. Por ejemplo, en documentos monetarios, la cantidad a menudo se escribe en forma de texto: "trescientos setenta y cinco rublos". en lugar de "375 rublos". En el segundo caso, la distorsión de un dígito cambiará el valor completo. Al usar la forma de texto, es posible que incluso los errores gramaticales no cambien el significado. Por ejemplo, una persona analfabeta escribió: "Trescientos setenta y cinco rublos". Sin embargo, se ha conservado el significado.

En algunos casos, existe la necesidad de clasificar el texto de un mensaje o documento para que no pueda ser leído por quienes no deben hacerlo. Se llama protección contra el acceso no autorizado. En este caso, el texto secreto está encriptado. En la antigüedad, el cifrado se llamaba criptografía. Cifrado es el proceso de convertir texto sin formato en texto cifrado, y descifrado- el proceso de transformación inversa, en el que se restaura el texto original. El cifrado también es codificación, pero con un método secreto conocido solo por la fuente y el destinatario. Los métodos de encriptación son tratados por una ciencia llamada criptografía(cm . "Criptografía" 2).

Historia de las formas técnicas de codificar información.

Con la llegada de los medios técnicos para almacenar y transmitir información, han surgido nuevas ideas y técnicas de codificación. El primer medio técnico de transmisión de información a distancia fue el telégrafo, inventado en 1837 por el estadounidense Samuel Morse. Un mensaje de telégrafo es una secuencia de señales eléctricas transmitidas desde un aparato de telégrafo a través de cables a otro aparato de telégrafo. Estas circunstancias técnicas llevaron a S. Morse a la idea de utilizar solo dos tipos de señales, cortas y largas, para codificar un mensaje transmitido por líneas telegráficas.

Samuel Finley Breeze Morse (1791–1872), EE. UU.

Este método de codificación se llama código Morse. En él, cada letra del alfabeto está codificada por una secuencia de señales cortas (puntos) y señales largas (guiones). Las letras están separadas entre sí por pausas: la ausencia de señales.

El mensaje telegráfico más famoso es la señal de socorro SOS ( S Cra O tu S almas- salvar nuestras almas). Así es como se ve en el código Morse aplicado al alfabeto inglés:

–––

Tres puntos (letra S), tres guiones (letra O), tres puntos (letra S). Dos pausas separan las letras entre sí.

La figura muestra el código Morse en relación con el alfabeto ruso. No había signos de puntuación especiales. Fueron escritos con las palabras: "punto" - un punto, "spt" - una coma, etc.

Un rasgo característico del código Morse es código de longitud variable de diferentes letras, por lo que el código Morse se llama código desigual. Las letras que aparecen con más frecuencia en el texto tienen un código más corto que las letras raras. Por ejemplo, el código de la letra "E" es un punto y el código de un carácter sólido consta de seis caracteres. Esto se hace para acortar la longitud de todo el mensaje. Pero debido a la longitud variable del código de letras, existe el problema de separar las letras entre sí en el texto. Por lo tanto, es necesario usar una pausa (skip) para la separación. Por lo tanto, el alfabeto telegráfico Morse es ternario, ya que utiliza tres caracteres: punto, guión, espacio.

El código telegráfico uniforme fue inventado por el francés Jean Maurice Baudot a finales del siglo XIX. Usó solo dos tipos diferentes de señales. No importa cómo los llames: punto y guión, más y menos, cero y uno. Estas son dos señales eléctricas diferentes. La longitud del código de todos los caracteres es la misma. y es igual a cinco. En este caso, no surge el problema de separar las letras entre sí: cada cinco señales es un signo de texto. Por lo tanto, no se requiere un pase.

Jean Maurice Emile Baudot (1845–1903), Francia

El código Baudot es el primer método en la historia de la tecnología para codificar información en binario.. Gracias a esta idea, fue posible crear un aparato de telégrafo de impresión directa que parece una máquina de escribir. Al presionar una tecla con una letra determinada, se genera la señal de cinco pulsos correspondiente, que se transmite a través de la línea de comunicación. La máquina receptora, bajo la influencia de esta señal, imprime la misma letra en una cinta de papel.

Las computadoras modernas también usan un código binario uniforme para codificar textos (ver “ Sistemas de codificación de texto” 2).

El tema de la codificación de la información se puede presentar en el plan de estudios en todas las etapas del estudio de la informática en la escuela.

En un curso propedéutico, a los estudiantes a menudo se les ofrecen tareas que no están relacionadas con la codificación de datos informáticos y que, en cierto sentido, son una forma de juego. Por ejemplo, en base a la tabla de códigos del código Morse, es posible proponer tanto tareas de codificación (codificar texto ruso usando código Morse) como tareas de decodificación (descifrar texto codificado usando código Morse).

La ejecución de tales tareas puede interpretarse como el trabajo de un criptógrafo, que ofrece varias claves de cifrado simples. Por ejemplo, alfanumérico, reemplazando cada letra con su número ordinal en el alfabeto. Además, se deben agregar signos de puntuación y otros símbolos al alfabeto para codificar completamente el texto. Pida a los estudiantes que piensen en una forma de distinguir entre letras minúsculas y mayúsculas.

Al realizar tales tareas, los estudiantes deben prestar atención al hecho de que se requiere un carácter de separación: un espacio, ya que el código resulta ser desigual: algunas letras están encriptadas con un dígito, otras con dos.

Invite a los alumnos a pensar en cómo pueden arreglárselas sin separar las letras en el código. Estas reflexiones deberían conducir a la idea de un código uniforme, en el que cada carácter esté codificado por dos dígitos decimales: A - 01, B - 02, etc.

Las colecciones de tareas para codificar y cifrar información están disponibles en varios libros de texto para la escuela.

En el curso de informática básica para la escuela principal, el tema de la codificación está más asociado con el tema de representar varios tipos de datos en una computadora: números, textos, imágenes, sonidos (ver “ Tecnologías de la información” 2).

En las clases superiores, el contenido de una educación general o un curso electivo puede tratar con más detalle temas relacionados con la teoría de la codificación desarrollada por K. Shannon en el marco de la teoría de la información. Existe línea completa tareas interesantes, cuya comprensión requiere un mayor nivel de formación matemática y de programación de los estudiantes. Estos son los problemas de codificación económica, algoritmo de codificación universal, codificación de corrección de errores. Muchos de estos temas se analizan en detalle en el libro de texto "Fundamentos matemáticos de la informática".

7. Tratamiento de la información

Procesamiento de datos - el proceso de cambio sistemático en el contenido o forma de presentación de la información.

El procesamiento de la información se lleva a cabo de acuerdo con ciertas reglas por parte de algún sujeto u objeto (por ejemplo, una persona o un dispositivo automático). lo llamaremos ejecutor de procesamiento de información.

El ejecutante del procesamiento, al interactuar con el entorno externo, recibe de él información de entrada que se está procesando. El resultado del procesamiento es imprimir transmite al ambiente externo. Así, el entorno externo actúa como fuente de información de entrada y consumidor de información de salida.

El procesamiento de la información ocurre de acuerdo con ciertas reglas conocidas por el ejecutante. Las reglas de procesamiento, que son una descripción de la secuencia de pasos de procesamiento individuales, se denominan algoritmo de procesamiento de información.

El ejecutor del procesamiento debe incluir una unidad de procesamiento, a la que llamaremos procesador, y un bloque de memoria en el que se almacena tanto la información procesada como las reglas de procesamiento (algoritmo). Todo lo anterior se muestra esquemáticamente en la figura.

esquema de procesamiento de información

Ejemplo. El estudiante, resolviendo el problema en la lección, lleva a cabo el procesamiento de la información. El ambiente externo para él es la atmósfera de la lección. La información de entrada es la condición de la tarea, que informa el profesor que dirige la lección. El estudiante memoriza la condición del problema. Para facilitar la memorización, puede usar notas en un cuaderno, una memoria externa. De la explicación del profesor, aprendió (recordó) la forma de resolver el problema. El procesador es el aparato mental del estudiante, mediante el cual para resolver el problema, recibe una respuesta: información de salida.

El esquema que se muestra en la figura es un esquema general de procesamiento de información que no depende de quién (o qué) es el ejecutor del procesamiento: un organismo vivo o un sistema técnico. Es este esquema el que se implementa por medios técnicos en una computadora. Por lo tanto, podemos decir que una computadora es un modelo técnico de un sistema de procesamiento de información “vivo”. Incluye todos los componentes principales del sistema de procesamiento: procesador, memoria, dispositivos de entrada, dispositivos de salida (ver “ dispositivo informático” 2).

La información de entrada presentada en forma simbólica (caracteres, letras, números, señales) se llama datos de entrada. Como resultado del procesamiento por parte del ejecutante, producción. Los datos de entrada y salida pueden ser un conjunto de valores: elementos de datos individuales. Si el procesamiento consiste en cálculos matemáticos, entonces los datos de entrada y salida son conjuntos de números. la siguiente figura X: {X 1, X 2, …, xn) denota el conjunto de datos de entrada, y Y: {y 1, y 2, …, mmm) - conjunto de datos de salida:

Esquema de procesamiento de datos

Procesar es transformar el conjunto. X en la multitud Y:

PAGS( X) Y

Aquí R denota las reglas de procesamiento utilizadas por el ejecutante. Si el ejecutor del procesamiento de información es una persona, entonces las reglas de procesamiento según las cuales actúa no siempre son formales e inequívocas. Una persona a menudo actúa creativamente, no formalmente. Puede resolver incluso los mismos problemas matemáticos. diferentes caminos. El trabajo de un periodista, científico, traductor y otros especialistas es un trabajo creativo con información que no sigue reglas formales.

Para designar reglas formalizadas que determinan la secuencia de pasos de procesamiento de información, la informática utiliza el concepto de algoritmo (ver “ Algoritmo" 2). El concepto de algoritmo en matemáticas está asociado con un método bien conocido para calcular el máximo común divisor (MCD) de dos números naturales, que se denomina algoritmo de Euclides. En forma verbal, se puede describir de la siguiente manera:

1. Si dos números son iguales, tome su valor común como MCD; de lo contrario, vaya al paso 2.

2. Si los números son diferentes, reemplace el mayor de ellos con la diferencia entre el mayor y el menor de los números. Regrese al paso 1.

Aquí la entrada son dos números naturales: X 1 y X 2. Resultado Y es su máximo común divisor. Regla ( R) es el algoritmo de Euclides:

Algoritmo de Euclides ( X 1, X 2) Y

Tal algoritmo formalizado es fácil de programar para una computadora moderna. La computadora es el ejecutor universal del procesamiento de datos. El algoritmo de procesamiento formalizado se presenta en forma de un programa ubicado en la memoria de la computadora. Para una computadora, las reglas de procesamiento ( R) - Este programa.

Pautas

Al explicar el tema "Procesamiento de la información", se deben dar ejemplos de procesamiento, tanto relacionados con la obtención de nueva información como con el cambio de la forma de presentación de la información.

El primer tipo de procesamiento: procesamiento asociado con la obtención de nueva información, nuevo contenido de conocimiento. Este tipo de procesamiento incluye la solución de problemas matemáticos. El mismo tipo de procesamiento de información incluye la solución de varios problemas aplicando el razonamiento lógico. Por ejemplo, el investigador en un determinado conjunto de pruebas encuentra un criminal; una persona, analizando las circunstancias, toma una decisión sobre sus acciones futuras; un científico resuelve el misterio de los manuscritos antiguos, etc.

El segundo tipo de procesamiento: procesamiento asociado con cambiar la forma, pero no cambiar el contenido. Este tipo de procesamiento de la información incluye, por ejemplo, la traducción de un texto de un idioma a otro: la forma cambia, pero el contenido debe conservarse. Un tipo importante de procesamiento para la informática es la codificación. Codificación- esto es transformación de información en una forma simbólica conveniente para su almacenamiento, transmisión, procesamiento(cm. " Codificación” 2).

La estructuración de datos también se puede clasificar como un segundo tipo de procesamiento. La estructuración está asociada con la introducción de un cierto orden, una cierta organización en el almacenamiento de la información. La disposición de los datos en orden alfabético, la agrupación según algún criterio de clasificación, el uso de una representación tabular o gráfica son todos ejemplos de estructuración.

Un tipo especial de procesamiento de información es Búsqueda. La tarea de búsqueda generalmente se formula de la siguiente manera: hay algún almacenamiento de información - matriz de información(guía telefónica, diccionario, horario de trenes, etc.), necesita encontrar en él la información necesaria que cumpla con ciertos términos de búsqueda(número de teléfono de esta organización, traducción de esta palabra al inglés, hora de salida de este tren). El algoritmo de búsqueda depende de la forma en que se organiza la información. Si la información está estructurada, entonces la búsqueda es más rápida, se puede optimizar (ver “ Búsqueda de datos” 2).

En un curso de informática propedéutica, los problemas de “caja negra” son populares. El ejecutante del procesamiento se considera como una “caja negra”, es decir, sistema, cuya organización interna y mecanismo no conocemos. La tarea es adivinar la regla de procesamiento de datos (P) que implementa el ejecutante.

El ejecutor de procesamiento calcula el valor promedio de los valores de entrada: Y = (X 1 + X 2)/2

En la entrada, una palabra en ruso, en la salida, el número de vocales.

El dominio más profundo de los temas de procesamiento de información se da cuando se estudian algoritmos para trabajar con cantidades y programación (en básica y bachillerato). El ejecutor del procesamiento de información en este caso es una computadora, y todas las capacidades de procesamiento están integradas en el lenguaje de programación. Programación hay descripción de las reglas para el procesamiento de datos de entrada con el fin de obtener datos de salida.

Los estudiantes deben recibir dos tipos de tareas:

Tarea directa: crear un algoritmo (programa) para resolver el problema;

Problema inverso: algoritmo dado, debe determinar el resultado de su ejecución rastreando el algoritmo.

Al resolver un problema inverso, el estudiante se pone en la posición de un ejecutante de procesamiento, ejecutando paso a paso el algoritmo. Los resultados de la ejecución en cada paso deben reflejarse en la tabla de seguimiento.

8. Transferencia de información

Componentes del proceso de transferencia de información

La transferencia de información se produce desde la fuente hasta el destinatario (receptor) de la información. fuente la informacion puede ser cualquier cosa: cualquier objeto o fenomeno de naturaleza viva o inanimada. El proceso de transferencia de información tiene lugar en algún entorno material que separa la fuente y el receptor de la información, que se denomina canal transferencia de información. La información se transmite a través de un canal en forma de una determinada secuencia de señales, símbolos, signos, que se denominan mensaje. Recipiente la información es un objeto que recibe un mensaje, como resultado del cual ocurren ciertos cambios en su estado. Todo lo anterior se muestra esquemáticamente en la figura.

Transferencia de información

Una persona recibe información de todo lo que le rodea, a través de los sentidos: oído, vista, olfato, tacto, gusto. Una persona recibe la mayor cantidad de información a través del oído y la vista. Los mensajes de sonido son percibidos por el oído: señales acústicas en un medio continuo (la mayoría de las veces en el aire). La visión percibe señales de luz que llevan la imagen de los objetos.

No todos los mensajes son informativos para una persona. Por ejemplo, un mensaje en un idioma incomprensible, aunque transmitido a una persona, no contiene información para ella y no puede provocar cambios adecuados en su estado (ver “ Información").

Un canal de información puede ser de naturaleza natural (aire atmosférico a través del cual se transmiten ondas sonoras, luz solar reflejada por los objetos observados) o creado artificialmente. En este último caso, estamos hablando de medios técnicos de comunicación.

Sistemas de transmisión de información técnica

El primer medio técnico de transmisión de información a distancia fue el telégrafo, inventado en 1837 por el estadounidense Samuel Morse. En 1876, el estadounidense A. Bell inventa el teléfono. Basado en el descubrimiento de las ondas electromagnéticas por el físico alemán Heinrich Hertz (1886), A.S. Popov en Rusia en 1895 y casi simultáneamente con él en 1896 G. Marconi en Italia, se inventó la radio. La televisión e Internet aparecieron en el siglo XX.

Todo lo anterior formas técnicas Las comunicaciones de información se basan en la transmisión de una señal física (eléctrica o electromagnética) a distancia y están sujetas a ciertas leyes generales. El estudio de estas leyes es teoría de la comunicación que surgió en la década de 1920. Aparato matemático de la teoría de la comunicación - teoría matemática de la comunicación, desarrollado por el científico estadounidense Claude Shannon.

Claude Elwood Shannon (1916–2001), EE. UU.

Claude Shannon propuso un modelo para el proceso de transmisión de información a través de canales técnicos de comunicación, representado por un diagrama.

Sistema de transmisión de información técnica

Codificar aquí significa cualquier transformación de información proveniente de una fuente en una forma adecuada para su transmisión a través de un canal de comunicación. Descodificación - transformación inversa de la secuencia de la señal.

El funcionamiento de tal esquema puede explicarse por el proceso familiar de hablar por teléfono. La fuente de información es la persona que habla. Un codificador es un micrófono de mano que convierte las ondas de sonido (habla) en señales eléctricas. El canal de comunicación es la red telefónica (cables, conmutadores de nodos telefónicos a través de los cuales pasa la señal). El dispositivo decodificador es un auricular (auricular) de la persona que escucha, el receptor de la información. Aquí la señal eléctrica entrante se convierte en sonido.

Los sistemas informáticos modernos para transmitir información (redes informáticas) funcionan según el mismo principio. Existe un proceso de codificación que convierte un código informático binario en una señal física del tipo que se transmite a través de un canal de comunicación. La decodificación es la transformación inversa de la señal transmitida en código de computadora. Por ejemplo, cuando se utilizan líneas telefónicas en redes informáticas, las funciones de codificación y decodificación las realiza un dispositivo llamado módem.

Capacidad del canal y tasa de transferencia de información

Los desarrolladores de sistemas de transmisión de información técnica deben resolver dos tareas interrelacionadas: cómo garantizar la máxima velocidad de transferencia de información y cómo reducir la pérdida de información durante la transmisión. Claude Shannon fue el primer científico que asumió la solución de estos problemas y creó una nueva ciencia para esa época: Teoría de la información.

K.Shannon determinó el método para medir la cantidad de información transmitida a través de los canales de comunicación. Introdujeron el concepto Canal de Banda ancha,como la tasa de transferencia de información máxima posible. Esta velocidad se mide en bits por segundo (así como en kilobits por segundo, megabits por segundo).

El rendimiento de un canal de comunicación depende de su implementación técnica. Por ejemplo, las redes informáticas utilizan los siguientes medios de comunicación:

líneas telefónicas,

Conexión de cables eléctricos,

cableado de fibra óptica,

Comunicación por radio.

Rendimiento de las líneas telefónicas: decenas, cientos de Kbps; el rendimiento de las líneas de fibra óptica y las líneas de comunicación por radio se mide en decenas y cientos de Mbps.

Ruido, protección contra el ruido

El término "ruido" se refiere a varios tipos de interferencia que distorsionan la señal transmitida y conducen a la pérdida de información. Dicha interferencia ocurre principalmente debido a razones técnicas: mala calidad de las líneas de comunicación, inseguridad entre sí de varios flujos de información transmitidos por los mismos canales. A veces, mientras hablamos por teléfono, escuchamos ruidos, crujidos, que dificultan la comprensión del interlocutor, o la conversación de personas completamente diferentes se superpone a nuestra conversación.

La presencia de ruido conduce a la pérdida de la información transmitida. En tales casos es necesaria la protección contra el ruido.

En primer lugar, se utilizan métodos técnicos para proteger los canales de comunicación de los efectos del ruido. Por ejemplo, usar cable blindado en lugar de cable desnudo; el uso de varios tipos de filtros que separan la señal útil del ruido, etc.

Claude Shannon desarrolló teoría de la codificación, que proporciona métodos para tratar el ruido. Una de las ideas importantes de esta teoría es que el código transmitido por la línea de comunicación debe ser redundante. Debido a esto, se puede compensar la pérdida de alguna parte de la información durante la transmisión. Por ejemplo, si es difícil escucharlo cuando habla por teléfono, al repetir cada palabra dos veces, tiene más posibilidades de que el interlocutor lo entienda correctamente.

Sin embargo, no puede hacer que la redundancia sea demasiado grande. Esto conducirá a retrasos y mayores costos de comunicación. La teoría de la codificación le permite obtener un código que será óptimo. En este caso, la redundancia de la información transmitida será la mínima posible y la fiabilidad de la información recibida será la máxima.

En los sistemas de comunicación digital modernos, la siguiente técnica se usa a menudo para combatir la pérdida de información durante la transmisión. Todo el mensaje se divide en porciones: paquetes. Para cada paquete se calcula suma de control(suma de dígitos binarios) que se transmite con este paquete. En el lugar de recepción, se vuelve a calcular la suma de control del paquete recibido y, si no coincide con la suma original, se repite la transmisión de este paquete. Esto continuará hasta que las sumas de verificación inicial y final coincidan.

Pautas

Considerando la transferencia de información en cursos propedéuticos y de informática básica, en primer lugar, este tema debe ser discutido desde la posición de una persona como receptora de información. La capacidad de recibir información del mundo circundante - condición esencial existencia humana. Los órganos de los sentidos humanos son los canales de información del cuerpo humano, llevando a cabo la conexión de una persona con el entorno externo. Sobre esta base, la información se divide en visual, auditiva, olfativa, táctil y gustativa. La razón por la que el gusto, el olfato y el tacto transmiten información a una persona es la siguiente: recordamos los olores de los objetos familiares, el sabor de la comida familiar, reconocemos los objetos familiares por el tacto. Y el contenido de nuestra memoria es información almacenada.

Se debe decir a los estudiantes que en el mundo animal el papel informativo de los sentidos es diferente al humano. El sentido del olfato desempeña una importante función informativa para los animales. Los organismos encargados de hacer cumplir la ley utilizan el elevado sentido del olfato de los perros de servicio para buscar delincuentes, detectar drogas, etc. La percepción visual y auditiva de los animales difiere de la de los humanos. Por ejemplo, se sabe que los murciélagos escuchan ultrasonido y que los gatos ven en la oscuridad (desde una perspectiva humana).

En el marco de este tema, los estudiantes deben poder dar ejemplos específicos del proceso de transmisión de información, determinar para estos ejemplos la fuente, el receptor de información y los canales utilizados para transmitir información.

Al estudiar informática en la escuela secundaria, los estudiantes deben conocer las disposiciones básicas de la teoría técnica de la comunicación: los conceptos de codificación, decodificación, tasa de transferencia de información, capacidad del canal, ruido, protección contra el ruido. Estos problemas pueden considerarse en el marco del tema "Medios técnicos de redes informáticas".

9. Representación de números

Números en matemáticas

El número es el concepto más importante de las matemáticas, que ha evolucionado y evolucionado durante un largo período de la historia humana. La gente ha estado trabajando con números desde la antigüedad. Inicialmente, una persona operaba solo con números enteros positivos, que se llaman números naturales: 1, 2, 3, 4, ... Durante mucho tiempo se opinó que existe el número más grande, "la mente humana no puede entender más que esto” (como escribieron en los tratados matemáticos eslavos antiguos).

El desarrollo de la ciencia matemática ha llevado a la conclusión de que no existe un número mayor. Desde un punto de vista matemático, la serie de los números naturales es infinita, es decir no limitado. Con el advenimiento del concepto de número negativo en matemáticas (R. Descartes, siglo XVII en Europa; en India mucho antes), resultó que el conjunto de números enteros es ilimitado tanto "izquierda" como "derecha". El conjunto matemático de los números enteros es discreto e ilimitado (infinito).

El concepto de número real (o real) fue introducido en las matemáticas por Isaac Newton en el siglo XVIII. Desde un punto de vista matemático el conjunto de los números reales es infinito y continuo. Incluye muchos enteros y un número infinito de no enteros. Entre dos puntos cualesquiera del eje numérico se encuentra un conjunto infinito de números reales. El concepto de número real está asociado a la idea de un eje numérico continuo, cualquier punto del cual corresponde a un número real.

Representación entera

en la memoria de la computadora los números se almacenan en el sistema numérico binario(cm. " Sistemas numéricos 2). Hay dos formas de representar enteros en una computadora: enteros sin signo y enteros con signo.

Enteros sin signo - esto es el conjunto de números positivos en el rango, dónde k- esta es la profundidad de bits de la celda de memoria asignada para el número. Por ejemplo, si se asigna una celda de memoria de 16 bits (2 bytes) para un número entero, entonces el número más grande será:

En decimal, esto corresponde a: 2 16 - 1 \u003d 65 535

Si todos los dígitos de la celda son ceros, entonces será cero. Por lo tanto, 2 16 = 65 536 enteros se colocan en una celda de 16 bits.

enteros con signo es el conjunto de números positivos y negativos en el rango[–2 k–1 , 2 k-once]. por ejemplo, cuando k= rango de representación de 16 enteros: [–32768, 32767]. El orden superior de la celda de memoria almacena el signo del número: 0 - número positivo, 1 - número negativo. El mayor número positivo 32.767 tiene la siguiente representación:

Por ejemplo, el número decimal 255, luego de ser convertido a binario e insertado en una celda de memoria de 16 bits, tendrá la siguiente representación interna:

Los enteros negativos se representan en complemento a dos. código adicional numero positivo norte- esto es es su representación binaria, que, cuando se suma al código numérico norte da valor 2 k. Aquí k- el número de bits en la celda de memoria. Por ejemplo, el código adicional para el número 255 sería:

Esta es la representación del número negativo -255. Agreguemos los códigos de los números 255 y -255:

El que estaba en el orden más alto "cayó" de la celda, por lo que la suma resultó ser cero. Pero así es como debería ser: norte + (–norte) = 0. El procesador de la computadora realiza la operación de resta como una suma con el código adicional del número restado. En este caso, el desbordamiento de la celda (superación de los valores límite) no provoca la interrupción de la ejecución del programa. ¡Esta circunstancia el programador debe conocerla y tenerla en cuenta!

El formato para representar números reales en una computadora se llama formato de punto flotante. Número Real R representado como un producto de la mantisa metro basado en el sistema numérico norte hasta cierto punto pags, que se llama el orden: R= metro ? notario público.

La representación de un número en forma de coma flotante es ambigua. Por ejemplo, para el número decimal 25,324, las siguientes igualdades son verdaderas:

25,324 = 2,5324? 10 1 = 0.0025324? 10 4 \u003d 2532.4? 10 -2, etc

Para evitar ambigüedades, acordamos usar la computadora una representación normalizada de un número en forma de punto flotante. mantisa en la representación normalizada debe cumplir la condición: 0.1 nortemetro < 1 norte. En otras palabras, la mantisa es menor que uno y el primer dígito significativo no es cero. En algunos casos, la condición de normalización se toma de la siguiente manera: 1 norte metro < 10 norte .

A memoria del ordenador mantisa representado como un número entero que contiene solo dígitos significativos(0 enteros y comas no se almacenan). Por tanto, la representación interna de un número real se reduce a la representación de un par de enteros: mantisa y exponente.

Los diferentes tipos de computadoras usan diferentes formas de representar números en forma de punto flotante. Considere una de las variantes de la representación interna de un número real en una celda de memoria de cuatro bytes.

La celda debe contener la siguiente información sobre el número: el signo del número, el exponente y los dígitos significativos de la mantisa.

El signo del número se almacena en el bit más significativo del 1er byte: 0 significa más, 1 significa menos. Los 7 bits restantes del primer byte contienen orden de la máquina. Los siguientes tres bytes almacenan los dígitos significativos de la mantisa (24 bits).

Los números binarios en el rango de 0000000 a 1111111 se colocan en siete dígitos binarios, lo que significa que el orden de la máquina varía en el rango de 0 a 127 (en sistema numérico decimal). Hay 128 valores en total. El orden, obviamente, puede ser positivo o negativo. Es razonable dividir estos 128 valores por igual entre valores de orden positivo y negativo: de -64 a 63.

Orden de la máquina sesgado en relación con el matemático y tiene sólo valores positivos. El desplazamiento se elige de modo que el valor matemático mínimo de la orden corresponda a cero.

La relación entre el orden de la máquina (Mp) y el orden matemático (p) en el caso considerado se expresa mediante la fórmula: Mp = p + 64.

La fórmula resultante se escribe en el sistema decimal. En binario, la fórmula se ve así: Mp 2 = p 2 + 100 0000 2 .

Para escribir la representación interna de un número real, debes:

1) traducir el módulo de un número dado a un sistema numérico binario con 24 dígitos significativos,

2) normalizar un número binario,

3) encontrar el orden de la máquina en el sistema binario,

4) teniendo en cuenta el signo del número, escriba su representación en una palabra de máquina de cuatro bytes.

Ejemplo. Escribe la representación interna del número 250.1875 en forma de punto flotante.

1. Vamos a traducirlo a un sistema numérico binario con 24 dígitos significativos:

250,1875 10 = 11111010,0011000000000000 2 .

2. Escribamos en forma de un número de punto flotante binario normalizado:

0.111110100011000000000000 H 10 2 1000 .

Aquí está la mantisa, la base del sistema numérico.
(2 10 \u003d 10 2) y el orden (8 10 \u003d 1000 2) están escritos en binario.

3. Calcular el orden de la máquina en el sistema binario:

MP2 = 1000 + 100 0000 = 100 1000.

4. Escribamos la representación del número en una celda de memoria de cuatro bytes, teniendo en cuenta el signo del número

Forma hexadecimal: 48FA3000.

El rango de los números reales es mucho más amplio que el rango de los enteros. Los números positivos y negativos están dispuestos simétricamente alrededor del cero. Por lo tanto, los números máximo y mínimo son iguales en valor absoluto.

El número absoluto más pequeño es cero. El número de punto flotante más grande en valor absoluto es el número con la mantisa más grande y el exponente más grande.

Para una palabra de máquina de cuatro bytes, este número sería:

0.11111111111111111111111 10 2 1111111 .

Después de convertir al sistema numérico decimal, obtenemos:

MÁX = (1 - 2 -24) 2 63 10 19 .

Si, al calcular con números reales, el resultado está fuera del rango permitido, entonces se interrumpe la ejecución del programa. Esto sucede, por ejemplo, al dividir por cero, o por un número muy pequeño cercano a cero.

Los números reales cuya longitud de bits de mantisa excede el número de bits asignados para la mantisa en una celda de memoria se representan en la computadora aproximadamente (con una mantisa "truncada"). Por ejemplo, el número decimal racional 0.1 en una computadora se representará aproximadamente (redondeado) porque en el sistema binario su mantisa tiene una cantidad infinita de dígitos. La consecuencia de esta aproximación es el error de los cálculos de máquina con números reales.

La computadora realiza cálculos con números reales aproximadamente. El error de tales cálculos se llama error de redondeo de máquina.

El conjunto de números reales que se pueden representar exactamente en la memoria de la computadora en forma de punto flotante es limitado y discreto. La discreción es una consecuencia del número limitado de dígitos de la mantisa, como se discutió anteriormente.

La cantidad de números reales que se pueden representar exactamente en la memoria de la computadora se puede calcular usando la fórmula: norte = 2 t · ( tuL+ 1) + 1. Aquí t- el número de dígitos binarios de la mantisa; tu- el valor máximo del orden matemático; L- valor mínimo de pedido. Para la opción de representación considerada anteriormente ( t = 24, tu = 63,
L
= -64) resulta: norte = 2 146 683 548.

Pautas

El tema de representar información numérica en una computadora está presente tanto en el estándar para primaria como para bachillerato.

En la escuela básica (curso básico) basta considerar la representación de números enteros en una computadora. El estudio de este problema solo es posible después de familiarizarse con el tema "Sistemas numéricos". Además, desde los principios de la arquitectura de computadoras, los estudiantes deben ser conscientes de que una computadora funciona con un sistema numérico binario.

Teniendo en cuenta la representación de números enteros, se debe prestar atención principal al rango limitado de números enteros, a la conexión de este rango con la capacidad de la celda de memoria asignada: k. Para números positivos (sin signo): , para números positivos y negativos (con signo): [–2 k–1 , 2 k–1 – 1].

La obtención de la representación interna de los números debe analizarse con ejemplos. Después de eso, por analogía, los estudiantes deben resolver tales problemas de forma independiente.

Ejemplo 1 Obtenga la representación interna firmada del entero 1607 en una ubicación de memoria de dos bytes.

1) Convierte el número al sistema binario: 1607 10 = 11001000111 2 .

2) Sumando ceros a los 16 dígitos de la izquierda, obtenemos la representación interna de este número en la celda:

Es conveniente mostrar cómo se utiliza la forma hexadecimal para la forma comprimida de este código, que se obtiene reemplazando cada cuatro dígitos binarios por un dígito hexadecimal: 0647 (ver “ Sistemas numéricos” 2).

Más difícil es el problema de obtener la representación interna de un entero negativo (– norte) - código adicional. Debe mostrar a los estudiantes el algoritmo de este procedimiento:

1) obtener la representación interna de un número positivo norte;

2) obtenga el código de retorno de este número reemplazando 0 con 1 y 1 con 0;

3) sumar 1 al número resultante.

Ejemplo 2. Obtenga la representación interna de un entero negativo -1607 en una ubicación de memoria de dos bytes.

Es útil mostrar a los estudiantes cómo es la representación interna del número negativo más pequeño. En una celda de dos bytes, esto es -32.768.

1) es fácil convertir el número 32 768 al sistema numérico binario, ya que 32 768 = 2 15. Por lo tanto, en binario es:

1000000000000000

2) escribir el código inverso:

0111111111111111

3) sumamos uno a este número binario, obtenemos

El que está en el primer bit significa el signo menos. No es necesario pensar que el código recibido es menos cero. Esto es -32,768 en forma de complemento a dos. Estas son las reglas para la representación automática de números enteros.

Después de mostrar este ejemplo, haga que los estudiantes demuestren por sí mismos que al sumar los códigos numéricos 32767 + (-32768) se obtiene el código numérico -1.

Según la norma, la representación de números reales debe estudiarse en la escuela secundaria. Al estudiar informática en los grados 10-11 en el nivel básico, es suficiente informar a los estudiantes sobre las características principales de una computadora con números reales: sobre el rango limitado y la interrupción del programa cuando va más allá; sobre el error de los cálculos de la máquina con números reales, que la computadora realiza cálculos con números reales más lentamente que con números enteros.

Estudiar a nivel de perfil requiere análisis detallado formas de representar números reales en formato de punto flotante, análisis de las características de realizar cálculos en una computadora con números reales. Un problema muy importante aquí es la estimación del error de cálculo, la advertencia contra la pérdida de valor, contra la interrupción del programa. El material detallado sobre estos temas está disponible en el manual de capacitación.

10. Sistema numérico

Sistema de numeración - esta es una forma de representar números y las reglas correspondientes para operar con números. Los diversos sistemas numéricos que existían antes y se utilizan hoy en día se pueden dividir en no posicional y posicional. Signos utilizados al escribir números, son llamados números.

A sistemas numéricos no posicionales el valor de un dígito no depende de su posición en el número.

Un ejemplo de un sistema numérico no posicional es el sistema romano (números romanos). En el sistema romano, las letras latinas se utilizan como números:

Ejemplo 1. El número CCXXXII consta de doscientos, tres decenas y dos unidades y es igual a doscientos treinta y dos.

Los números romanos se escriben de izquierda a derecha en orden descendente. En este caso, se suman sus valores. Si se escribe un número más pequeño a la izquierda y un número grande a la derecha, entonces se restan sus valores.

VI = 5 + 1 = 6; IV \u003d 5 - 1 \u003d 4.

MCMXCVIII = 1000 + (-100 + 1000) +

+ (–10 + 100) + 5 + 1 + 1 + 1 = 1998.

A sistemas de números posicionales el valor denotado por un dígito en una entrada numérica depende de su posición. El número de dígitos utilizados se denomina base del sistema numérico posicional.

El sistema numérico utilizado en las matemáticas modernas es sistema decimal posicional. Su base es diez, porque Cualquier número se escribe usando diez dígitos:

0, 1, 2, 3, 4, 5, 6, 7, 8, 9.

La naturaleza posicional de este sistema es fácil de entender con el ejemplo de cualquier número de varios dígitos. Por ejemplo, en el número 333, los primeros tres significan trescientos, el segundo, tres decenas, el tercero, tres unidades.

Escribir números en un sistema posicional con base norte necesito tener alfabeto de norte dígitos Por lo general para esto norte < 10 используют norte primeros números arábigos, y norte> Se suman 10 letras a diez números arábigos. Aquí hay ejemplos de alfabetos de varios sistemas:

Si se requiere indicar la base del sistema al que pertenece el número, entonces se le asigna un subíndice a este número. Por ejemplo:

1011012, 36718, 3B8F16.

En el sistema numérico base q (q-sistema numérico ario) las unidades de dígitos son potencias sucesivas de un número q. q unidades de cualquier categoría forman la unidad de la siguiente categoría. Para escribir un número a q Se requiere un sistema de números arios. q varios caracteres (números) que representan los números 0, 1, ..., q– 1. Escribir un número q en q-El sistema numérico ario tiene la forma 10.

Forma expandida de escribir un número.

Dejar ac- número en el sistema base q, ai- dígitos de un sistema numérico dado presentes en la notación de un número A, norte+ 1 - el número de dígitos de la parte entera del número, metro- el número de dígitos de la parte fraccionaria del número:

Forma expandida de un número. PERO se llama un registro en la forma:

Por ejemplo, para un número decimal:

Los siguientes ejemplos muestran la forma expandida de números hexadecimales y binarios:

En cualquier sistema numérico, su base se escribe como 10.

Si todos los términos en la forma expandida de un número no decimal se presentan en el sistema decimal y la expresión resultante se calcula de acuerdo con las reglas de la aritmética decimal, entonces se obtendrá un número en el sistema decimal igual al dado. De acuerdo con este principio, se realiza una conversión de un sistema no decimal a uno decimal. Por ejemplo, la conversión al sistema decimal de los números escritos arriba se hace así:

Conversión de números decimales a otros sistemas numéricos

Traducción de enteros

número entero decimal X necesita ser transferido a un sistema con una base q: X = (a norte a n-1 a 1 a 0) q. Encuentre los dígitos significativos de un número: . Representemos el número en forma expandida y realicemos la misma transformación:

A partir de aquí es claro que a 0 es el resto después de dividir el número X por número q. La expresión entre paréntesis es el cociente entero de esta división. Vamos a designarlo como X 1. Realizando transformaciones similares, obtenemos:

Como consecuencia, a 1 es el resto de la división X 1 en q. Continuando la división con resto, obtendremos una secuencia de dígitos del número deseado. Número un en esta cadena de divisiones será el último privado, más pequeño q.

Formulemos la regla resultante: por para convertir un número decimal entero a un sistema numérico con una base diferente, necesita:

1) expresar la base del nuevo sistema numérico en el sistema numérico decimal y realizar todas las acciones posteriores de acuerdo con las reglas de la aritmética decimal;

2) dividir secuencialmente el número dado y los cocientes parciales resultantes por la base del nuevo sistema numérico hasta obtener un cociente incompleto menor que el divisor;

3) los restos recibidos, que son dígitos de un número en el nuevo sistema numérico, los alinean con el alfabeto del nuevo sistema numérico;

4) componer un número en el nuevo sistema numérico, escribiéndolo a partir del último número privado.

Ejemplo 1. Convierte el número 37 10 al sistema binario.

Para denotar números en la notación de un número, usamos simbolismo: a 5 a 4 a 3 a 2 a 1 a 0

Por lo tanto: 37 10 = l00l0l 2

Ejemplo 2. Convertir el número decimal 315 a sistemas octal y hexadecimal:

De aquí se sigue: 315 10 = 473 8 = 13B 16. Recuerda que 11 10 = B 16 .

Decimal X < 1 требуется перевести в систему с основанием q: X = (0, a –1 a –2 … a–m+1 a–m) q . Encuentre los dígitos significativos de un número: a –1 ,a –2 , …, a-metro. Representamos el número en forma desarrollada y lo multiplicamos por q:

A partir de aquí es claro que a–1 X por número q. Denotamos por X 1 parte fraccionaria del producto y lo multiplicamos por q:

Como consecuencia, a –2 hay toda una parte del trabajo X 1 por número q. Continuando con la multiplicación, obtendremos una secuencia de dígitos. Ahora vamos a formular la regla: Para convertir una fracción decimal a un sistema numérico con una base diferente, necesitas:

1) multiplicar sucesivamente el número dado y las partes fraccionarias resultantes de los productos por la base del nuevo sistema hasta que la parte fraccionaria del producto sea igual a cero o se alcance la precisión requerida para representar el número en el nuevo sistema numérico;

2) las partes enteras resultantes de los productos, que son los dígitos de un número en el nuevo sistema numérico, los alinean con el alfabeto del nuevo sistema numérico;

3) formar la parte fraccionaria del número en el nuevo sistema numérico, comenzando con la parte entera del primer producto.

Ejemplo 3. Convertir decimal 0.1875 a binario, octal y hexadecimal.

Aquí, la parte entera de los números está en la columna de la izquierda y la parte fraccionaria está en la columna de la derecha.

Por lo tanto: 0.1875 10 = 0.0011 2 = 0.14 8 = 0.3 16

La traducción de números mixtos que contienen partes enteras y fraccionarias se realiza en dos etapas. Las partes enteras y fraccionarias del número original se traducen por separado según los algoritmos correspondientes. En el registro final de un número en el nuevo sistema numérico, la parte entera se separa de la coma fraccionaria (punto).

Pautas

El tema “Sistemas numéricos” está directamente relacionado con la teoría matemática de los números. Sin embargo, en el curso escolar de matemáticas, por regla general, no se estudia. La necesidad de estudiar este tema en un curso de informática está relacionada con el hecho de que los números en la memoria de la computadora se representan en el sistema numérico binario, y se utilizan sistemas hexadecimales u octales para representar externamente los contenidos de la memoria, las direcciones de memoria. Este es uno de los temas tradicionales de un curso de informática o programación. Al estar relacionado con las matemáticas, este tema también contribuye a la educación matemática fundamental de los escolares.

Para un curso de informática, el principal interés es familiarizarse con el sistema numérico binario. El uso del sistema numérico binario en una computadora se puede considerar en dos aspectos: 1) numeración binaria, 2) aritmética binaria, es decir realizar cálculos aritméticos con números binarios.

numeración binaria

Con la numeración binaria, los estudiantes se encuentran en el tema "Representación de texto en la memoria de la computadora". Al hablar de la tabla de codificación, el docente debe informar a los alumnos que el código binario interno de un carácter es su número de serie en el sistema numérico binario. Por ejemplo, el número de la letra S en la tabla ASCII es 83. El código binario de ocho dígitos de la letra S es igual al valor de este número en el sistema binario: 01010011.

computación binaria

Según el principio de John von Neumann, la computadora realiza cálculos en el sistema binario. En el marco del curso básico, basta con limitarnos a considerar cálculos con números enteros binarios. Para realizar cálculos con números de varios dígitos, debe conocer las reglas para sumar y las reglas para multiplicar números de un solo dígito. Estas son las reglas:

El principio de permutación de la suma y la multiplicación funciona en todos los sistemas numéricos. Las técnicas para realizar cálculos con números de varios dígitos en el sistema binario son similares al decimal. En otras palabras, los procedimientos para sumar, restar y multiplicar por una “columna” y dividir por una “esquina” en el sistema binario se realizan de la misma forma que en el sistema decimal.

Considere las reglas para restar y dividir números binarios. La operación de resta es la inversa de la suma. De la tabla de sumas anterior, las reglas de resta son las siguientes:

0 - 0 = 0; 1 - 0 = 1; 10 - 1 = 1.

Aquí hay un ejemplo de resta de varios dígitos:

El resultado obtenido se puede comprobar sumando la diferencia con el sustraendo. Debe ser un número decreciente.

La división es la operación inversa de la multiplicación.
En cualquier sistema numérico, no se puede dividir por 0. El resultado de dividir por 1 es igual al dividendo. Dividir un número binario por 102 mueve el punto decimal un lugar a la izquierda, al igual que la división decimal por diez. Por ejemplo:

Dividir por 100 desplaza el punto decimal 2 lugares a la izquierda, y así sucesivamente. En el curso básico, no puede considerar ejemplos complejos de división de números binarios de varios valores. Aunque los estudiantes capaces pueden hacer frente a ellos, habiendo entendido los principios generales.

La representación de la información almacenada en la memoria de la computadora en su verdadera forma binaria es muy engorrosa debido a la gran cantidad de dígitos. Se refiere al registro de dicha información en papel o su visualización en pantalla. A estos efectos, es habitual utilizar sistemas mixtos binario-octal o binario-hexadecimal.

Existe una relación simple entre la representación binaria y hexadecimal de un número. Al traducir un número de un sistema a otro, un dígito hexadecimal corresponde a un código binario de cuatro bits. Esta correspondencia se refleja en la tabla binario-hexadecimal:

Tabla hexadecimal binaria

Tal relación se basa en el hecho de que 16 = 2 4 y el número de combinaciones diferentes de cuatro dígitos de los dígitos 0 y 1 es 16: de 0000 a 1111. Por lo tanto la conversión de números de hexadecimal a binario y viceversa se realiza mediante conversión formal por tabla binario-hexadecimal.

Aquí hay un ejemplo de cómo traducir un código binario de 32 bits a un sistema hexadecimal:

1011 1100 0001 0110 1011 1111 0010 1010 BC16BF2A

Si se proporciona una representación hexadecimal de la información interna, es fácil traducirla a código binario. La ventaja de la representación hexadecimal es que es 4 veces más corta que la binaria. Es deseable que los estudiantes memoricen la tabla binario-hexadecimal. Entonces en efecto para ellos la representación hexadecimal será equivalente a la binaria.

En octal binario, cada dígito octal corresponde a una tríada de dígitos binarios. Este sistema le permite reducir el código binario en 3 veces.

11. Almacenamiento de información

Una persona almacena información en su propia memoria, así como en forma de registros en varios medios externos (en relación con una persona): en piedra, papiro, papel, medios magnéticos y ópticos, etc. Gracias a dichos registros, la información es transmitido no solo en el espacio (de persona a persona), sino también en el tiempo, de generación en generación.

Variedad de medios de almacenamiento

La información se puede almacenar en varias formas: en forma de textos, en forma de figuras, diagramas, dibujos; en forma de fotografías, en forma de grabaciones de sonido, en forma de películas o grabaciones de vídeo. En cada caso, se utilizan sus portadores. Transportador - esto es el medio material utilizado para registrar y almacenar información.

Las principales características de los portadores de información incluyen: volumen de información o densidad de almacenamiento de información, confiabilidad (durabilidad) de almacenamiento.

medios de papel

El portaaviones de uso más masivo sigue siendo papel. Inventado en el siglo II d.C. en China, el papel ha servido a la gente durante 19 siglos.

Para comparar los volúmenes de información en diferentes medios, usaremos una unidad universal: byte, suponiendo que un carácter del texto "pesa" 1 byte. Un libro que contiene 300 páginas, con un tamaño de texto de aproximadamente 2000 caracteres por página, tiene un volumen de información de 600 000 bytes o 586 KB. El volumen de información de la biblioteca de la escuela secundaria, cuyo fondo es de 5000 volúmenes, es aproximadamente igual a 2861 MB = 2,8 GB.

En cuanto a la durabilidad del almacenamiento de documentos, libros y otros productos de papel, depende mucho de la calidad del papel, de los tintes utilizados para escribir el texto y de las condiciones de almacenamiento. Curiosamente, hasta mediados del siglo XIX (desde entonces, la madera comenzó a usarse como materia prima del papel), el papel se fabricaba a partir de algodón y desechos textiles: trapos. Las tintas eran tintes naturales. La calidad de los documentos escritos a mano de esa época era bastante alta y podían almacenarse durante miles de años. Con la transición a una base de madera, con la difusión de las herramientas de mecanografía y copia, con el uso de tintes sintéticos, la vida útil de los documentos impresos se ha reducido a 200-300 años.

medios magnéticos

La grabación magnética se inventó en el siglo XIX. Inicialmente, la grabación magnética solo se usaba para preservar el sonido. El primer medio de grabación magnética fue el alambre de acero con un diámetro de hasta 1 mm. A principios del siglo XX, también se utilizaba para estos fines la cinta de acero laminado. Las características de calidad de todos estos soportes eran muy bajas. La producción de una grabación magnética de 14 horas de presentaciones orales en el Congreso Internacional de Copenhague en 1908 requirió 2.500 km, o alrededor de 100 kg de cable.

En la década de 1920, apareció cinta magnética primero sobre papel, y luego sobre una base sintética (lavsan), sobre cuya superficie se aplica una fina capa de polvo ferromagnético. En la segunda mitad del siglo XX se aprendió a grabar una imagen en cinta magnética, aparecieron las cámaras de vídeo y los grabadores de vídeo.

En las computadoras de la primera y segunda generación, la cinta magnética se usaba como el único tipo de medio extraíble para dispositivos de memoria externos. Se colocaron alrededor de 500 Kb de información en un carrete de cinta magnética, que se utilizó en las unidades de cinta de las primeras computadoras.

Desde principios de la década de 1960, la computadora discos magnéticos: un disco de aluminio o plástico recubierto con una fina capa de polvo magnético de unas pocas micras de espesor. La información en un disco se organiza a lo largo de pistas circulares concéntricas. Los discos magnéticos son duros y flexibles, extraíbles y están integrados en una unidad de computadora. Estos últimos se denominan tradicionalmente discos duros y los disquetes extraíbles se denominan disquetes.

El disco duro de una computadora es un paquete de discos magnéticos colocados en un eje común. La capacidad de información de los discos duros modernos se mide en gigabytes, decenas y cientos de GB. El tipo más común de disquete con un diámetro de 3,5 pulgadas contiene 2 MB de datos. Los disquetes han dejado de usarse recientemente.

Las tarjetas de plástico se han generalizado en el sistema bancario. También utilizan el principio magnético de registro de información con el que funcionan los cajeros automáticos y cajas registradoras, conectados con el sistema bancario de información.

medios ópticos

El uso del método óptico o láser para registrar información comienza en la década de 1980. Su aparición está asociada con la invención de un generador cuántico: un láser, una fuente de un haz muy delgado (del orden de una micra) de alta energía. El haz es capaz de quemar un código binario de datos con una densidad muy alta en la superficie de un material fusible. La lectura se produce como resultado de la reflexión de una superficie tan "perforada" de un rayo láser con menos energía (haz "frío"). Debido a la alta densidad de grabación, los discos ópticos tienen un volumen de información mucho mayor que los medios magnéticos de un solo disco. La capacidad de información de un disco óptico es de 190 a 700 MB. Los discos ópticos se llaman CD.

En la segunda mitad de la década de 1990, aparecieron los discos de video versátiles digitales (DVD). D digital V ersátil D es) de gran capacidad, medida en gigabytes (hasta 17 GB). El aumento de su capacidad en comparación con los CD se debe al uso de un rayo láser de menor diámetro, así como a la grabación de dos capas y dos caras. Piense en el ejemplo de la biblioteca escolar. Todo su fondo de libros se puede colocar en un DVD.

Actualmente, los discos ópticos (CD - DVD) son los soportes materiales más fiables de información grabada digitalmente. Estos tipos de medios son de una sola escritura (solo lectura) o regrabables (lectura y escritura).

Memoria flash

Recientemente, han aparecido una gran cantidad de dispositivos digitales móviles: cámaras digitales y videocámaras, reproductores de MP3, PDA, teléfonos móviles, dispositivos de lectura. libros electrónicos, GPS-navegadores y mucho más. Todos estos dispositivos requieren medios de almacenamiento portátiles. Pero dado que todos los dispositivos móviles son bastante pequeños, también tienen requisitos especiales para los medios de almacenamiento. Deben ser compactos, tener un bajo consumo de energía durante la operación y no ser volátiles durante el almacenamiento, tener una gran capacidad, altas velocidades de escritura y lectura y una larga vida útil. Todos estos requisitos se cumplen tarjetas flash memoria. El volumen de información de una tarjeta flash puede ser de varios gigabytes.

Como medio externo para una computadora, los llaveros flash ("unidades flash", se les llama coloquialmente), cuyo lanzamiento comenzó en 2001, fueron ampliamente utilizados. Gran cantidad de información, compacidad, alta velocidad de lectura-escritura, facilidad de uso son las principales ventajas de estos dispositivos. El llavero flash se conecta al puerto USB de una computadora y le permite descargar datos a una velocidad de aproximadamente 10 Mb por segundo.

“Nano-portadores”

En los últimos años, se ha trabajado activamente para crear portadores de información aún más compactos utilizando las llamadas "nanotecnologías", trabajando a nivel de átomos y moléculas de materia. Como resultado, un solo CD hecho con nanotecnología puede reemplazar miles de discos láser. Según los expertos, en unos 20 años, la densidad de almacenamiento de la información aumentará hasta tal punto que cada segundo de una vida humana podrá registrarse en un medio con un volumen de aproximadamente un centímetro cúbico.

Organización de almacenamientos de información.

La información se almacena en los medios para que pueda ser visualizada, buscar la información necesaria, los documentos necesarios, reponer y cambiar, borrar datos que han perdido su relevancia. En otras palabras, una persona necesita la información almacenada para trabajar con ella. La conveniencia de trabajar con dichos repositorios de información depende en gran medida de cómo se organice la información.

Son posibles dos situaciones: los datos no están organizados de ninguna manera (esta situación a veces se denomina montón), o los datos estructurado. Con el aumento de la cantidad de información, la opción “montón” se vuelve cada vez más inaceptable debido a la complejidad de su uso práctico (búsqueda, actualización, etc.).

Las palabras "los datos están estructurados" significan la presencia de algún orden de datos en su almacenamiento: en un diccionario, calendario, archivo, base de datos informática. Los libros de referencia, los diccionarios y las enciclopedias suelen utilizar el principio alfabético lineal de organización (estructuración) de datos.

Las bibliotecas son el mayor depósito de información. Las menciones de las primeras bibliotecas datan del siglo VII a. Con la invención de la imprenta en el siglo XV, las bibliotecas comenzaron a extenderse por todo el mundo. La biblioteconomía tiene siglos de experiencia en la organización de la información.

Para organizar y buscar libros en las bibliotecas se crean catálogos: listados del fondo de libros. El primer catálogo de biblioteca se creó en la famosa Biblioteca de Alejandría en el siglo III a. Con la ayuda del catálogo, el lector determina la disponibilidad del libro que necesita en la biblioteca y el bibliotecario lo encuentra en el depósito de libros. Cuando se utiliza la tecnología del papel, un catálogo es un conjunto organizado de tarjetas de cartón con información sobre libros.

Hay catálogos alfabéticos y sistemáticos. A alfabético catálogos, las fichas están dispuestas en orden alfabético de los nombres de los autores y forma lineal(de un solo nivel)estructura de datos. A sistemático Las fichas de catálogo se sistematizan según el contenido de los libros y la forma estructura de datos jerárquica. Por ejemplo, todos los libros se dividen en arte, educativos, científicos. La literatura educativa se divide en escolar y universitaria. Los libros para la escuela se dividen en clases, etc.

En las bibliotecas modernas, los catálogos en papel están siendo reemplazados por los electrónicos. En este caso, la búsqueda de libros la realiza automáticamente el sistema de información de la biblioteca.

Los datos almacenados en medios informáticos (discos) tienen una organización de archivos. Un archivo es como un libro en una biblioteca. Como un directorio de biblioteca, el sistema operativo crea un directorio en el disco, que se almacena en pistas dedicadas. El usuario está buscando archivo deseado, navegando por el directorio, después de lo cual el sistema operativo encuentra este archivo en el disco y se lo proporciona al usuario. Los primeros medios de disco de pequeña capacidad utilizaban una estructura de almacenamiento de archivos de un solo nivel. Con la llegada de los discos duros de gran capacidad, se empezó a utilizar una estructura de organización de archivos jerárquica. Junto con el concepto de “archivo”, apareció el concepto de carpeta (ver “ Archivos y sistema de archivos” 2).

Un sistema más flexible para organizar el almacenamiento y la recuperación de datos son las bases de datos informáticas (ver . Base de datos” 2).

Fiabilidad del almacenamiento de la información.

El problema de la confiabilidad del almacenamiento de información está asociado con dos tipos de amenazas a la información almacenada: destrucción (pérdida) de información y robo o fuga de información confidencial. Los archivos y bibliotecas en papel siempre han estado en peligro de extinción física. La destrucción de la Biblioteca de Alejandría mencionada anteriormente en el siglo I aC trajo un gran daño a la civilización, ya que la mayoría de los libros que contenía existían en una sola copia.

La principal forma de proteger la información en documentos en papel contra pérdidas es su duplicación. El uso de medios electrónicos hace que la duplicación sea más fácil y económica. Sin embargo, la transición a las nuevas tecnologías de la información (digital) ha creado nuevos problemas de seguridad de la información. Ver el artículo “ Protección de Datos” 2.

En el proceso de estudio del curso de informática, los estudiantes adquieren ciertos conocimientos y habilidades relacionados con el almacenamiento de información.

Los estudiantes aprenden a trabajar con fuentes de información tradicionales (en papel). El estándar para la escuela primaria señala que los estudiantes deben aprender a trabajar con fuentes de información no informáticas: libros de referencia, diccionarios, catálogos de bibliotecas. Para ello, deben familiarizarse con los principios de organización de estas fuentes y con los métodos de búsqueda óptima en ellas. Dado que estos conocimientos y habilidades son de gran importancia educativa general, es deseable impartirlos a los estudiantes lo antes posible. En algunos programas del curso de informática propedéutica se presta mucha atención a este tema.

Los estudiantes deben dominar las técnicas de trabajo con medios de almacenamiento informático extraíbles. Cada vez más raros en los últimos años, se han utilizado discos magnéticos flexibles, que han sido reemplazados por medios flash rápidos y de gran capacidad. Los estudiantes deben poder determinar la capacidad de información de los medios, la cantidad de espacio libre y comparar el volumen de archivos guardados con ellos. Los estudiantes deben comprender que los discos ópticos son el medio más adecuado para el almacenamiento a largo plazo de grandes cantidades de datos. Si tiene una grabadora de CD, enséñeles cómo escribir archivos.

Un punto importante de la capacitación es explicar los peligros a los que está expuesta la información de la computadora debido a programas maliciosos: virus informáticos. A los niños se les deben enseñar las reglas básicas de "higiene informática": llevar a cabo un control antivirus de todos los archivos recién llegados; actualizar periódicamente las bases de datos antivirus.

12. Idiomas

Definición y clasificación de lenguas

Idioma - esto es cierto sistema de representación simbólica de la información. En el diccionario de informática escolar compilado por A.P. Ershov, se da la siguiente definición: “ Idioma- un conjunto de símbolos y un conjunto de reglas que determinan cómo componer mensajes significativos a partir de estos símbolos". Dado que un mensaje significativo se entiende como información, esta definición coincide esencialmente con la primera.

Las lenguas se dividen en dos grupos: naturales y formales. lenguajes naturales- esto es lenguas históricamente formadas del habla nacional. La mayoría de los idiomas modernos se caracterizan por la presencia de formas de habla orales y escritas. El análisis de las lenguas naturales es mayoritariamente objeto de las ciencias filológicas, en particular, de la lingüística. En informática, el análisis de los lenguajes naturales lo realizan especialistas en el campo de la inteligencia artificial. Uno de los objetivos del desarrollo del proyecto informático de quinta generación es enseñar a la computadora a comprender lenguajes naturales.

Los lenguajes formales son lenguajes creados artificialmente para uso profesional. Suelen ser de carácter internacional y tienen forma escrita. Ejemplos de tales lenguajes son el lenguaje de las matemáticas, el lenguaje de las fórmulas químicas, la notación musical, el lenguaje de la música, etc.

Los siguientes conceptos están asociados con cualquier idioma: alfabeto - muchos símbolos utilizados; sintaxis- reglas para escribir construcciones del lenguaje(texto en idioma); semántica - lado semántico de las construcciones del lenguaje; pragmática - consecuencias prácticas de usar texto en un idioma dado.

Para lenguajes formales caracterizada por pertenecer a un número limitado área temática(matemáticas, química, música, etc.). Propósito del lenguaje formal - una descripción adecuada del sistema de conceptos y relaciones inherentes a un área temática determinada. Por lo tanto, todos los componentes del lenguaje mencionados anteriormente (alfabeto, sintaxis, etc.) se centran en las especificidades del área temática. Un idioma puede desarrollarse, cambiar y complementarse junto con el desarrollo de su área temática.

Los lenguajes naturales no están limitados en su aplicación, en este sentido pueden llamarse universales. Sin embargo, no siempre es conveniente utilizar únicamente el lenguaje natural en áreas altamente especializadas. En tales casos, la gente recurre a la ayuda de los lenguajes formales.

Se conocen ejemplos de lenguas que se encuentran en un estado intermedio entre natural y formal. Idioma esperanto fue creado artificialmente para la comunicación entre personas de diferentes nacionalidades. PERO latín, que en la antigüedad era hablado por los habitantes del Imperio Romano, se ha convertido en el lenguaje formal de la medicina y la farmacología en nuestro tiempo, habiendo perdido la función de lenguaje hablado.

lenguajes de informatica

La información que circula en una computadora se divide en dos tipos: información procesada (datos) e información que controla el funcionamiento de la computadora (comandos, programas, operadores).

La información presentada en una forma adecuada para el almacenamiento, transmisión y procesamiento por una computadora se llama datos. Ejemplos de datos: números al resolver un problema matemático; secuencias de caracteres en el procesamiento de textos; una imagen ingresada en una computadora mediante escaneo, para ser procesada. La forma en que se representan los datos en una computadora se llama lenguaje de presentación de datos.

Cada tipo de datos tiene una representación de datos externa e interna diferente. Representación externa orientado a humanos, determina el tipo de datos en los dispositivos de salida: en la pantalla, en la impresión. Representación interna- esto es representación en medios de almacenamiento en una computadora, es decir. en la memoria, en las líneas de transmisión de información. La computadora opera directamente sobre la información en la representación interna, y la representación externa se usa para comunicarse con la persona.

En el sentido más general, podemos decir que el lenguaje para representar datos informáticos es lenguaje de código binario. Sin embargo, desde el punto de vista de las propiedades anteriores que debe tener cualquier lenguaje: alfabeto, sintaxis, semántica, pragmática, no se puede hablar de un lenguaje común de códigos binarios. Lo único que tiene en común es el alfabeto binario: 0 y 1. Pero para diferentes tipos de datos, las reglas de sintaxis y semántica del lenguaje de representación interna difieren. La misma secuencia de dígitos binarios para diferentes tipos Los datos tienen un significado completamente diferente. Por ejemplo, el código binario "0100000100101011" en el lenguaje de representación de enteros denota el número decimal 16683, y en el lenguaje de representación de datos de caracteres denota dos caracteres - "A+". De este modo, diferentes tipos de datos usan diferentes lenguajes de representación interna. Todos ellos tienen un alfabeto binario, pero difieren en la interpretación de las secuencias de caracteres..

Los lenguajes de representación de datos externos suelen estar cerca de la forma familiar para los humanos: los números se representan en el sistema decimal, cuando se escriben textos, se utilizan alfabetos de lenguaje natural, símbolos matemáticos tradicionales, etc.. En la presentación de estructuras de datos, un conveniente Se utiliza la forma tabular (bases de datos relacionales). Pero incluso en este caso, siempre hay ciertas reglas de sintaxis y semántica del lenguaje, se usa un conjunto limitado de símbolos válidos.

El lenguaje interno para representar acciones sobre datos (el lenguaje para administrar la operación de la computadora) es lenguaje de comando del procesador de la computadora. Los lenguajes externos para representar acciones sobre datos incluyen lenguajes de programacion de alto nivel, idiomas de entrada de paquetes de aplicaciones, lenguajes de comando del sistema operativo, lenguajes de manipulación de datos en DBMS etc.

Cualquier lenguaje de programación de alto nivel incluye tanto los medios para representar datos, la sección de datos, como los medios para representar acciones sobre los datos, la sección de operadores (ver “ Lenguajes de programación 2). Lo mismo se aplica a los otros tipos de lenguajes informáticos enumerados anteriormente.

Entre los lenguajes formales de la ciencia, el más cercano a la informática es el lenguaje de las matemáticas.
A su vez, de las muchas disciplinas matemáticas, la teoría de números y la lógica matemática tienen la mayor aplicación en las ciencias de la computación.
Al respecto, podemos decir que los temas de los sistemas numéricos (el lenguaje para representar los números) y los fundamentos de la lógica matemática (el lenguaje de la lógica) están relacionados con los fundamentos fundamentales de la informática (ver “ Sistemas numéricos" y " expresiones booleanas” 2).

Pautas

En los cursos de informática básica y propedéutica, una conversación sobre idiomas en relación con una persona es de gran importancia educativa. El término “lenguaje” familiar para los estudiantes adquiere un nuevo significado en sus mentes. Todo un sistema de conceptos científicos se construye alrededor de este término. El concepto de lenguaje es uno de los conceptos básicos más importantes del curso de informática.

Al estudiar cada nueva herramienta TIC, los estudiantes deben tener en cuenta el hecho de que para trabajar con ella, el usuario debe dominar un cierto lenguaje formalizado, que su uso requiere un estricto cumplimiento de las reglas del lenguaje: conocimiento del alfabeto, sintaxis , semántica y pragmática. Este rigor se debe a que los lenguajes formalizados, por regla general, no tienen redundancia. Por lo tanto, cualquier violación de las reglas (uso de un carácter que no está incluido en el alfabeto, uso incorrecto de caracteres de separación, por ejemplo, una coma en lugar de un punto, etc.) conduce a un error.

Los estudiantes deben prestar atención a las características comunes de algunas construcciones del lenguaje utilizadas en diversas tecnologías. Por ejemplo, las reglas para escribir fórmulas en hojas de cálculo y expresiones aritméticas en lenguajes de programación son casi las mismas. También hay diferencias a las que también debes prestar atención. Por ejemplo, en los lenguajes de programación, los conectores lógicos (NOT, AND, OR) son signos de operaciones y en las hojas de cálculo son nombres de funciones.

Para simplificar el trabajo del usuario en el software moderno, a menudo se utilizan varios tipos de shells para proporcionar una interfaz de usuario conveniente. Se debe explicar a los estudiantes que detrás de estos caparazones, por regla general, se esconde un cierto lenguaje formalizado. Por ejemplo, detrás del caparazón gráfico del sistema operativo sistemas Windows oculta el lenguaje de comandos del sistema operativo. Otro ejemplo: MS Access DBMS brinda al usuario la oportunidad de usar el diseñador de tablas para crear una base de datos y el diseñador de consultas para crear consultas. Sin embargo, detrás de estas herramientas de alto nivel, SQL está "oculto", un lenguaje universal para describir y manipular datos. Al cambiar al modo apropiado, puede mostrar cómo se ven los comandos SQL generados como resultado de trabajar con el constructor.

Bibliografía del apartado “Información teórica”

1. Andreeva E..A.,bosova l.L.,Falina I.H. Fundamentos matemáticos de la informática. Curso electivo. M.: BINOM. Laboratorio de Conocimiento, 2005.

2. Beshenkov S.PERO.,Rakitina E.PERO. Informática. Curso sistemático. Libro de texto para décimo grado. Moscú: Laboratorio de conocimientos básicos, 2001, 57 p.

3.salchicha norte. Cibernética o Control y Comunicación en el Animal y la Máquina. Moscú: Radio soviética, 1968, 201 p.

4. Informática. Cuaderno-taller en 2 tomos / Ed. YO G. Semakina, E. K. Henner. T. 1. M.: BINOM. Laboratorio de Conocimiento, 2005.

5. Kuznetsov A.A., Beshenkov S.A., Rakitina E.A., Matveeva N.V., Milokhina L.V. Curso continuo de informática (concepto, sistema de módulos, programa modelo). Informática y Educación, N° 1, 2005.

6. Diccionario enciclopédico matemático. Apartado: "Diccionario de informática escolar". M.: Enciclopedia soviética, 1988.

7.Friedland A.yo. Informática: procesos, sistemas, recursos. M.: BINOM. Laboratorio de Conocimiento, 2003.

INFORMACIÓN (inglés informática), la ciencia de extraer información de los mensajes, crear recursos de información, programar el comportamiento de las máquinas y otras entidades relacionadas con la construcción y el uso de un entorno hombre-máquina para resolver problemas de modelado, diseño, interacción, aprendizaje, etc. Estudia las propiedades de la información, los métodos para extraerla de los mensajes y presentarla en una forma determinada; propiedades, métodos y medios de interacción de la información; propiedades de los recursos de información, métodos y medios de su creación, presentación, almacenamiento, acumulación, búsqueda, transferencia y protección; propiedades, métodos y medios para construir y utilizar máquinas programables y entornos hombre-máquina para resolver problemas.

Producción científica de la informática.

La producción científica de la informática sirve de base metodológica para la construcción de un entorno hombre-máquina para la resolución de problemas (Fig. 1) relacionados con diversos campos de actividad.

Los resultados de estudios de entidades (usualmente llamados objetos en ciencia) son representados por sus modelos simbólicos y/o físicos. Los modelos simbólicos son descripciones del conocimiento adquirido [ver. Modelado simbólico(s-modeling)], y los físicos son prototipos de los objetos en estudio, reflejando sus propiedades, comportamiento, etc. El resultado científico es un modelo de un sistema de conocimiento (o un componente de un modelo previamente definido y publicado) que describe un conjunto de objetos, incluido el objeto de estudio, y las relaciones entre ellos. La descripción del modelo se presenta en forma de mensaje diseñado para su reconocimiento e interpretación por parte de la comunidad científica. El valor del resultado depende del poder predictivo, reproducibilidad y aplicabilidad del modelo, así como de las propiedades del mensaje que contiene su descripción.

Ejemplos de resultados que han jugado un papel destacado en el soporte metodológico de la construcción de un entorno hombre-máquina para la resolución de problemas pueden ser: el modelo de máquina electrónica digital inventado por J. von Neumann con instrucciones de programa y datos almacenados en una memoria compartida [ conocido como el modelo de von Neumann] y la arquitectura de von Neumann]; inventado por el creador de la Web (cf. La red mundial) t berners lee Protocolo HTTP (ing. Protocolo de transferencia de hipertexto - protocolo de transferencia de hipertexto), que es un protocolo de nivel de aplicación que define las reglas para transferir mensajes en sistemas hipermedia (ver Multimedia), y un identificador de recursos uniforme URI (ing. Identificador de recursos uniforme), que se ha convertido en el estándar para registrar una dirección de recurso publicada en Internet. Es difícil encontrar hoy (2017) un campo de actividad donde no se apliquen los productos científicos de la informática. A partir de ella se crearon el correo electrónico, la Web, los motores de búsqueda, la telefonía IP, el Internet de las cosas y otros servicios de Internet (ver Internet); Grabación digital de audio, fotografía y vídeo; sistemas de diseño asistidos por computadora (CAD); simuladores de computadora y robots (ver. Modelado por computadora), sistemas de comunicación digital, sistemas de navegación, impresoras 3D, etc.

Conceptos básicos

La formación permanente de la informática va acompañada del desarrollo de su aparato conceptual y del perfeccionamiento del objeto de investigación. En 2006 en el Instituto de Problemas Informáticos academia rusa Ciencias (IPI RAS) se creó una nueva área de investigación - modelado simbólico de objetos arbitrarios en un entorno hombre-máquina (abreviado- Con simulación simbólica o simulación s). Uno de los primeros proyectos científicos en esta área se dedicó a la metodología para construir un modelo simbólico del sistema de conocimiento informático en un entorno hombre-máquina. . En la teoría del modelado simbólico (s-modeling) creada en 2009, se propuso la próxima versión del modelo simbólico del núcleo del sistema de conceptos informáticos, que incluye los siguientes conceptos.

Mensaje(Mensaje en inglés) se considera como un conjunto ordenado finito de símbolos (visuales, de audio, etc.; ver Símbolo en informática) o su código (ver Código en informática) que satisface el protocolo de interacción entre la fuente y el destinatario. La existencia de un mensaje presupone la existencia de una fuente del mensaje, un destinatario, un portador, un medio de transmisión, un medio de entrega y un protocolo para la interacción entre la fuente y el destinatario. En el entorno humano-máquina para la resolución de problemas (s-environment), las personas con la ayuda de máquinas programables (s-machines) forman mensajes, presentándolos en lenguajes de consulta, programación, etc.; realizar varias conversiones (por ejemplo, de analógico a digital y viceversa; de sin comprimir a comprimido y viceversa; de una forma de representación de documentos a otra); reconocer, utilizar mensajes para construir nuevos mensajes (programas, documentos, etc.); interpretar sobre modelos de sistemas conceptuales (que se almacenan en la memoria del intérprete también en forma de mensajes); intercambiar mensajes utilizando sistemas de reglas implementados por software y hardware (protocolos de red, ver más abajo). Red de computadoras); guardar y acumular mensajes (mediante la creación de bibliotecas electrónicas, enciclopedias y otros recursos de información), resolver los problemas de búsqueda y protección de mensajes.

Intérprete de mensajes se estudia como constructor del mensaje de salida de acuerdo con la entrada de acuerdo con el sistema dado de reglas de interpretación. Una condición necesaria para la construcción de un intérprete de mensajes es la existencia de modelos de los lenguajes de entrada y salida, así como modelos de sistemas de conceptos sobre los cuales deben interpretarse los mensajes escritos en los lenguajes de entrada y salida.

Datos(Datos en inglés): un mensaje necesario para resolver un determinado problema o conjunto de problemas, presentado en una forma diseñada para el reconocimiento, transformación e interpretación por parte del solucionador (programa o persona). Una persona percibe datos (texto, imágenes, etc.) en forma simbólica, mientras que un programa de computadora o dispositivo informático (teléfono inteligente, cámara digital, etc.) los percibe en código.

Información(Información en inglés) se estudia como resultado de la interpretación del mensaje en el modelo del sistema de conceptos [ver. Modelado simbólico(s-simulación)]. Para extraer información de un mensaje, es necesario que el mensaje recibido se presente en una forma diseñada para ser reconocida e interpretada por el destinatario del mensaje; modelos de sistemas conceptuales almacenados en la memoria del intérprete, entre los que se encuentra el necesario para interpretar el mensaje recibido; mecanismos para buscar el modelo necesario, interpretar el mensaje, presentar el resultado de la interpretación en una forma diseñada para el destinatario (Fig. 2).

Por ejemplo, el resultado de interpretar el mensaje ma, presentado en el idioma a, recibido por el traductor (humano o robot) en forma de mensaje mb en el idioma b, es la información extraída del mensaje ma.

tarea programable(s-problema) se considera como un conjunto (Formul, Rulsys, Alg, Prog), donde Formul es el enunciado del problema; Rulsys - un conjunto de sistemas de reglas obligatorias y orientadoras para la solución de un problema, alineado con Formula; Alg es la unión de conjuntos de algoritmos, cada uno de los cuales corresponde a un elemento de Rulsys; Prog es la unión de conjuntos de programas, cada uno de los cuales está asignado a uno de los elementos de Alg. Cada elemento de Rulsys, Alg y Prog debe recibir una descripción de la aplicación. Las descripciones del uso de los elementos de Rulsys incluyen la especificación del tipo de solucionador de problemas (máquina s autónoma, cooperación en red de máquinas s, cooperación hombre-máquina, etc.), requisitos de seguridad de la información, etc. Modos de operación del solucionador de problemas ( automático local, automático distribuido, interactivo local, etc.), requisitos para el resultado obtenido, etc. Las descripciones de la aplicación de programas incluyen datos sobre lenguajes de implementación, sistemas operativos, etc.

Algoritmo– una descripción formalizada de un conjunto finito de pasos para resolver el problema, correspondiente a uno de los elementos de Rulsys y que permite una correspondencia uno a uno con un conjunto dado de datos de entrada al conjunto resultante de datos de salida.

Programa– un algoritmo implementado en un lenguaje de programación de alto nivel, un lenguaje orientado a máquina y/o en un sistema de instrucciones de máquina. Presentado en forma de mensaje que define el comportamiento de un solucionador de problemas de s-machine con propiedades dadas. Existe en encarnaciones simbólicas, de código y de señal, conectadas por relaciones de traducción (ver Compilador en informática).

Símbolo(símbolo inglés) - un sustituto de un objeto natural o inventado, que denota este objeto y es un elemento de un determinado sistema para construir mensajes simbólicos (textos, notaciones musicales, etc.), diseñados para ser percibidos por una persona o un robot. Por ejemplo, el alfabeto ruso es un sistema de símbolos de texto; la letra A en este sistema es un símbolo que reemplaza el sonido correspondiente del sistema de símbolos de audio del habla del idioma ruso; La letra A corresponde a un símbolo de textura táctil (percibido por el tacto con los dedos) en un sistema de mensajes de texto para invidentes conocido como Braille (ver Fig. Braille). El conjunto de símbolos visuales, sonoros y otros elegidos para construir mensajes de un determinado tipo se considera como un conjunto de objetos constructivos elementales, cada uno de los cuales está dotado de un conjunto de atributos y un conjunto de operaciones permitidas. La creación de estructuras a partir de los elementos de este conjunto está determinada por el sistema de reglas para la construcción de modelos simbólicos [para más detalles, véase el artículo Símbolo en informática (símbolo-s)].

El código(código en inglés) - un sustituto de un símbolo o mensaje simbólico utilizado para representarlos en computadoras, teléfonos inteligentes y otras máquinas programables y diseñado para construir, guardar, transmitir e interpretar mensajes simbólicos [para más detalles, consulte el artículo Código en informática ( código s)].

Señal(señal en inglés) es un efecto óptico, sonoro o de otro tipo percibido por los sentidos humanos o sensores de máquinas, o la representación del código en forma de una frecuencia de radiación electromagnética, composiciones de valores de voltaje eléctrico, u otro, diseñado para ser percibido por el hardware de la máquina (por ejemplo, la unidad central de procesamiento de una computadora, microprocesador navegador de coche). Los símbolos, códigos y señales están interconectados por relaciones de transformación. A cada símbolo y construcción simbólica, diseñados para que los perciba un ser humano o un robot, se le puede asignar una correspondencia uno a uno con códigos diseñados para manipularlos con la ayuda de software y dispositivos informáticos.

Modelo de sistema conceptual. El modelo S Cons de un sistema de conceptos se considera como un par (ConsSet, ConsRel), donde ConsSet es un conjunto de conceptos; ConsRel es una familia de relaciones definidas en ConsSet. Definición de un sistema de conceptos: una descripción de su modelo, acompañada de una indicación del alcance. La descripción se presenta en forma de mensaje diseñado para la interpretación por parte del receptor, presentación, almacenamiento, distribución, acumulación y búsqueda en el entorno humano-máquina de la actividad intelectual. Un sistema de conceptos que se considere definido no debe incluir conceptos que no tengan definiciones (ya la vez no estén relacionados con conceptos-axiomas). Determinar el alcance del modelo: una descripción de los tipos de corresponsal (a quienes se dirige la definición), el objetivo en el proceso de lograr el sentido de la definición (clases de tareas en cuyo estudio la definición puede ser útil) , la etapa en la que es recomendable utilizar la definición (concepto, metodología de solución, etc.) d.).

Modelo de sistema de conocimiento. El concepto de "saber" en el modelado s [ver. Modelado simbólico(simulación s)] se define como el estado del receptor del mensaje cuando el mensaje de salida resultante de la interpretación del mensaje de entrada se reconoce como ya conocido y no requiere cambios en los modelos de sistemas conceptuales almacenados en la memoria del mensaje. receptor. El concepto de "conocimiento" se define como una capacidad compleja para extraer información de mensajes que contienen las condiciones de tareas de una determinada clase (estas pueden ser tareas de reconocimiento de patrones, traducción de un idioma a otro u otras clases de tareas). El modelo S del sistema de conocimiento se considera como una tríada (Cons , Lang , Interp ), donde Cons es el modelo s del sistema de conceptos; Lang es el modelo s del conjunto de lenguajes de mensajes interpretados en Cons; Interp es el modelo s de la colección de intérpretes en Contras de mensajes compuestos en idiomas de Lang.

La interpretación del mensaje en el modelo Cons incluye:

1) construir un mensaje de salida (extracción de información) de acuerdo con un mensaje de entrada dado (los mensajes se presentan en idiomas del conjunto Lang);

2) análisis del mensaje de salida (si se requieren cambios en el modelo Cons);

3) si es necesario, cambie el modelo Contras; si no, termina.

Por ejemplo, un grupo de expertos sistema moderno El diseño asistido por computadora (CAD) es un sistema de conocimiento. La productividad del diseño depende de qué tan bien se construya.

maquina programable(s-machine) es una estructura de software y hardware para resolver problemas. Las supercomputadoras, los mainframes, las computadoras personales, las laptops, los teléfonos inteligentes, los navegadores, las cámaras digitales y las cámaras de video son todos s-cars. Los teclados, ratones, trackballs, touchpads y otros dispositivos de entrada son componentes de s-machines que convierten los caracteres en códigos aceptados por los controladores (ver Controlador en informática) de los dispositivos correspondientes. Monitores de ordenadores personales, displays de portátiles, navegadores, etc. convierten códigos generados por controladores de vídeo en composiciones simbólicas diseñadas para el canal visual humano.

(s-environment) - una asociación de redes informáticas y máquinas programables individuales que se utilizan para resolver diversos problemas. Medios de informatización de diversos tipos de actividad. El entorno S debe proporcionar la representación de códigos digitales de modelos simbólicos y la manipulación de dichos códigos con la ayuda de máquinas S. En el corazón de las tecnologías modernas de comunicación digital, diseño asistido por computadora, etc., hay una idea que es notable en términos de las consecuencias de su implementación: reducir toda la diversidad simbólica a códigos digitales [y cada uno de ellos a un solo código (todavía tienen un código binario)] e instruir el trabajo con códigos a máquinas programables, combinados en un entorno humano-máquina para resolver problemas.

Interacción de la información en el medio s(Fig. 3) se estudia como un conjunto de interfaces tales como "hombre - hombre", "hombre - programa", "hombre - hardware de una máquina programable", "programa - programa", "programa - hardware" (ver Interfaz Puerto en informática). Una persona percibe señales analógicas de entrada (luz, sonido, etc.) con la ayuda de dispositivos de entrada visuales, auditivos y otros de biointeligencia (un sistema biológico que asegura el funcionamiento del intelecto). Convierte las señales que le interesan en construcciones simbólicas visuales, de audio y otras utilizadas en los procesos de pensamiento. Las señales de salida de la biointeligencia se realizan a través de gestos (por ejemplo, cuando se ingresa desde el teclado y el mouse), habla, etc. La entrada y salida de los programas son los datos de entrada y los códigos de resultado (ver Fig. El código en informática), y la entrada y salida del hardware son señales. Las señales analógicas de entrada se convierten en señales digitales utilizando convertidores de analógico a digital(ADC), y la salida digital a analógica usando convertidores de digital a analógico(DAC).

En el entorno s moderno (2017), los medios naturales de percepción, procesamiento y almacenamiento de señales humanas se complementan con los inventados: cámaras de fotos y video digitales, teléfonos inteligentes, etc. Una parte bien conocida de las tecnologías de interacción de la información está representada por el rápido desarrollo Servicios de Internet. Se utiliza para interactuar con las personas. Correo electrónico(correo electrónico en inglés), varios tipos de conexión a Internet [ telefonía por internet(telefonía IP); por ejemplo, implementado en el servicio de Internet de Skype; mensajeros (mensajero inglés - conectado); por ejemplo, el servicio de Internet Telegram), redes sociales (redes sociales en inglés), etc. Para la interacción de las cosas utilizadas por las personas (sistemas de iluminación, mantenimiento de la temperatura, etc.) entre ellas y con el entorno externo, las tecnologías de la información del “ Internet de las cosas” (ver Internet).

Clases de tareas básicas

Basado en el estudio de propiedades y patrones. modelado simbólico(s-simulación) se definen las siguientes clases de problemas básicos de informática.

Representación de modelos de objetos arbitrarios, diseñado para la percepción humana y máquinas programables, se asocia con la invención de lenguajes de mensajes que cumplen ciertos requisitos. Esta clase estudia los sistemas de símbolos y códigos usados ​​en lenguajes orientados a humanos y máquinas, respectivamente. El primero incluye lenguajes de especificación, programación, consultas, el segundo, sistemas de instrucciones de máquina. Esta clase también incluye tareas de presentación de datos. Incluye las tareas de representar modelos de sistemas conceptuales sobre los que se interpretan los mensajes. En el nivel superior de la jerarquía de tareas de esta clase se encuentra la representación de modelos de sistemas de conocimiento.

Conversión de tipos y formas de representación de modelos simbólicos permite establecer correspondencia entre modelos. Las tareas de conversión de tipos (por ejemplo, de voz a texto y viceversa) y formas (por ejemplo, de analógico a digital y viceversa; sin comprimir a comprimido y viceversa; *.doc a *.pdf) son una adición necesaria al tareas de representación de modelos.

Reconocimiento de mensajes implica la necesidad de presentarlo en un formato conocido por el destinatario. Cuando se cumple esta condición, para reconocer el mensaje, se resuelven las tareas de hacer coincidir con los modelos modelo, o hacer coincidir las propiedades del modelo reconocido con las propiedades de los modelos modelo. Por ejemplo, en la tarea de identificación biométrica de una persona, sus datos biométricos (mensaje de entrada) se comparan con una muestra biométrica de la base de datos del sistema biométrico.

Construcción del modelo sistemas conceptuales, sistemas de conocimiento, intérpretes de mensajes sobre modelos de sistemas conceptuales; modelos de tareas, tecnologías de programación, interacción en el entorno s; modelos de arquitectura de s-machines, redes informáticas, arquitecturas orientadas a servicios; modelos de mensajes y medios de su construcción, documentos y flujo de trabajo. En el nivel superior de la jerarquía de esta clase se encuentran las tareas de construcción de modelos de entorno s y tecnologías de modelado simbólico.

Interpretación de mensajes(extracción de información) presupone la existencia del mensaje recibido, el modelo del sistema de conceptos sobre el que debe interpretarse y el mecanismo de interpretación. La resolución de problemas en el entorno hombre-máquina es la interpretación de los datos iniciales (mensaje de entrada) sobre el modelo del sistema de conceptos presentado en el algoritmo. El resultado de la solución es el mensaje de salida (información extraída del mensaje de entrada). Si el intérprete es un programa ejecutable, entonces los datos iniciales, el programa y el resultado de resolver el problema están representados por los códigos correspondientes (ver Código en Informática). Para el microprocesador de la máquina programable, los mensajes a interpretar y los resultados de la interpretación están representados por señales correspondientes a códigos de instrucciones y datos de máquina. Por ejemplo, cuando se dispara con una cámara digital, un mensaje (en forma de señal luminosa) actúa sobre una matriz fotosensible, es reconocido por esta y luego se convierte en un código de imagen digital, que es interpretado por un programa que mejora la imagen. calidad. El resultado resultante se convierte y graba (en el almacenamiento integrado de la cámara o en la tarjeta de memoria) como un archivo gráfico.

Intercambio de mensajes: las tareas de construcción de interfaces del tipo "hombre - hombre", "hombre - programa", "hombre - hardware de una máquina programable", "programa - programa", "programa - hardware" (ver Interfaz en informática), " hardware - hardware” (ver Puerto en informática); tareas de mensajería en un entorno hombre-máquina para la resolución de problemas (con tipificación de remitentes y destinatarios; medios de envío, transmisión y recepción de mensajes; entornos de mensajería). Se inventan sistemas de reglas de intercambio de mensajes (protocolos de red); arquitecturas de red; sistemas de gestión de documentos. Por ejemplo, los mensajes se intercambian entre procesos. sistemas operativos(SO), programas s-machine en una red informática, usuarios de correo electrónico, etc.

Guardar, acumular y buscar mensajes: se estudian y tipifican los dispositivos de memoria y almacenamiento, sus mecanismos de control; formas de conservación y acumulación; medios, métodos de conservación, acumulación y búsqueda; bases de datos y bibliotecas de software. Se estudian modelos del objeto de búsqueda (por modelo, por características, por descripción de propiedades) y métodos de búsqueda.

protección de la información: Se estudian los problemas de prevención y detección de vulnerabilidades, control de acceso, protección contra intrusiones, malware, interceptación de mensajes y uso no autorizado.

Áreas de investigación

Las ideas científicas más importantes que influyen en el desarrollo de las ciencias de la computación están plasmadas en el soporte metodológico para la construcción de herramientas que apoyen los procesos de cognición, interacción de la información y solución automatizada de diversos problemas. En la etapa actual (2017) del desarrollo de la informática, los siguientes complejos interconectados de áreas de investigación son relevantes.

Automatización de cálculos(computación con ayuda de máquinas programables): se estudian modelos, arquitecturas y sistemas de mando de máquinas programables; algoritmización de tareas programables [algoritmos y estructuras de datos, algoritmos distribuidos (Distributed Algorithms), algoritmos aleatorios (Randomized Algorithms), etc.]; computación distribuida (Distributed Computing), computación en la nube (Cloud Computing); complejidad e intensidad de recursos de los cálculos.

Programación: se estudian los sistemas de símbolos y códigos de texto; lenguajes de programación y especificaciones de tareas; traductores; bibliotecas de programas; Programación de sistemas; Sistemas operativos; sistemas de programación instrumental; Sistemas de gestión de bases de datos; tecnologías de programación; servicios en línea para resolver problemas, etc.

Entorno hombre-máquina para la resolución de problemas.(s-environment): se estudian modelos, métodos y herramientas para construir un s-environment, redes informáticas, redes de comunicación digital, Internet.

Percepción y presentación de mensajes, interacción en el entorno s: se estudian modelos, métodos y medios de percepción y presentación de mensajes visuales, auditivos, táctiles y otros; visión por computadora, audición y otros sensores artificiales; formación de mensajes de audio, visuales, táctiles y otros (incluidos los combinados) diseñados para una persona y un robot asociado; reconocimiento de mensajes de audio, visuales y otros (habla, gestos, etc.); procesamiento de imágenes, gráficos de computadora, visualización, etc.; intercambio de mensajes (modelos de mensajes, métodos y medios de su recepción y transmisión); interfaces de usuario, programas, hardware, programas con hardware; servicios de interacción en línea (mensajería, redes sociales, etc.).

Recursos y sistemas de información para la resolución de problemas en el entorno s: se estudian modelos, métodos y medios para construir, representar, guardar, acumular, buscar, transferir y proteger los recursos de información; gestión de documentos electrónicos; bibliotecas electrónicas y otros sistemas de información; web (ver La red mundial).

Seguridad de la información y criptografía: se estudian métodos de prevención y detección de vulnerabilidades; control de acceso; protección de sistemas de información contra intrusiones, malware, interceptación de mensajes; uso no autorizado de recursos de información, software y hardware.

Inteligencia artificial: se estudian modelos, métodos y herramientas para construir robots inteligentes utilizados como socios humanos (para resolver problemas de seguridad, control situacional, etc.); métodos expertos de toma de decisiones.

Modelado simbólico: se estudian sistemas de símbolos visuales, auditivos, táctiles y otros, considerados como objetos constructivos para la construcción de modelos de entidades arbitrarias diseñadas para una persona (sistemas de conceptos y sistemas de conocimiento, objetos ambientales y objetos inventados por personas); sistemas de códigos, puestos de acuerdo con sistemas de símbolos, que están destinados a la construcción de códigos equivalentes de modelos simbólicos diseñados para la manipulación con la ayuda de programas; lenguajes para describir modelos simbólicos; digitación de modelos simbólicos y sus códigos equivalentes; métodos para construir modelos simbólicos de sistemas de conceptos y sistemas de conocimiento (incluidos los sistemas de conocimiento sobre tareas programables) [para más detalles, consulte el artículo Modelado simbólico(s-simulación)].

La formación de la informática.

Modelado simbólico de los objetos en estudio ha servido durante mucho tiempo como la herramienta principal para presentar el conocimiento adquirido. La invención de símbolos (gestuales, gráficos, etc.) y los modelos de mensajes simbólicos construidos a partir de ellos, la representación y acumulación de tales modelos en el entorno externo se han convertido en medios clave para la formación y desarrollo de las capacidades intelectuales. El papel dominante de los modelos simbólicos en la actividad intelectual está determinado no solo por su compacidad y expresividad, sino también por el hecho de que no existen restricciones sobre los tipos de medios utilizados para almacenarlos. Los medios pueden ser memoria humana, hoja de papel, matriz de cámara digital, memoria de grabadora de voz digital u otra cosa. Los costos de construir, copiar, transferir, guardar y acumular modelos simbólicos son incomparablemente menores que los costos similares asociados con modelos no simbólicos (por ejemplo, modelos de barcos, edificios, etc.). Sin herramientas de modelado simbólico, es difícil imaginar el desarrollo de la ciencia, la ingeniería y otras actividades.

En las primeras etapas del desarrollo del modelado, la variedad de objetos modelados se limitaba a lo que comúnmente se denominan objetos ambientales, y los modelos de estos objetos eran físicos. El desarrollo del sonido, el gesto y otros medios de modelado simbólico de significados, provocados por la necesidad de informar sobre el peligro, la colocación de objetos de caza y otros objetos de observación, contribuyeron a la mejora de los mecanismos de cognición, comprensión mutua y aprendizaje. Los idiomas de mensajes comenzaron a formarse, incluidos los símbolos de sonido y gestos. El deseo de modelar el comportamiento (incluido el propio) ha planteado nuevos desafíos. Se puede suponer que inicialmente este deseo estuvo asociado con la enseñanza de un comportamiento racional en la caza, en la vida cotidiana, durante los desastres naturales. En cierta etapa, pensaron en crear tales herramientas de modelado que permitieran construir modelos que permitieran su almacenamiento, copia y transferencia.

El deseo de aumentar la eficacia de las explicaciones que acompañan al espectáculo condujo a la mejora del aparato conceptual y los medios de su realización verbal. El desarrollo de modelos simbólicos en forma de esquemas gráficos y la mejora del habla condujeron a un modelo gráfico del habla. Se creó la escritura. Se ha convertido no solo en una etapa importante en el desarrollo del modelado simbólico, sino también en una poderosa herramienta en el desarrollo de la actividad intelectual. Ahora, las descripciones de los objetos de modelado y las relaciones entre ellos podrían representarse mediante composiciones de textos, diagramas y dibujos. Se creó un conjunto de herramientas para mostrar observaciones, razonamientos y planes en forma de modelos simbólicos que podrían almacenarse y transmitirse. Las tareas de inventar medios, herramientas para escribir y crear imágenes, colorantes, etc., fueron las primeras tareas en el camino hacia la construcción de un entorno de modelado simbólico.

Una etapa importante en el modelado gráfico está asociada con modelos de imágenes esquemáticas (los progenitores de los dibujos), la base del diseño. La representación de un objeto tridimensional siendo diseñado en tres proyecciones bidimensionales, que muestran las dimensiones y nombres de las partes, jugó un papel decisivo en el desarrollo de la ingeniería. En el camino de los textos manuscritos, dibujos y diagramas a la tipografía y los modelos gráficos en el diseño, de la grabación de sonido, la fotografía y la radio al cine y la televisión, de las computadoras y las redes locales a red global, laboratorios virtuales y educación a distancia, el papel de los modelos simbólicos que una persona crea con la ayuda de máquinas está en constante crecimiento.

La productividad de los solucionadores de problemas es un problema clave de la productividad de la actividad intelectual, que está constantemente en el centro de atención de los inventores. La necesidad de evaluaciones cuantitativas de los objetos materiales ha estimulado durante mucho tiempo la invención de sistemas de sonido, gestos y luego símbolos gráficos. Durante un tiempo, se las arreglaron con la regla: cada valor tiene su propio símbolo. El conteo con guijarros, palos y otros objetos (conteo objetivo) precedió a la invención del conteo simbólico (basado en una representación gráfica de cantidades). A medida que aumentaba el número de objetos que había que utilizar, la tarea de representación simbólica de las cantidades se hacía más urgente. La formación del concepto de "números" y la idea de guardar símbolos al modelar números condujo a la invención de los sistemas numéricos. Mención especial merece la idea de los sistemas numéricos posicionales, uno de ellos (el binario) en el siglo XX. estaba destinado a desempeñar un papel clave en la invención de las máquinas programables digitales y la codificación digital de modelos de caracteres. Cambiar el significado de un símbolo con un cambio en su posición en la secuencia de símbolos es una idea muy productiva que proporcionó avances en la invención de los dispositivos informáticos (desde el ábaco hasta la computadora).

Herramientas para aumentar la productividad de los solucionadores de problemas. En 1622-1633, el científico inglés William Otred propuso una variante regla de cálculo, que se convirtió en el prototipo de reglas de cálculo que ingenieros e investigadores de todo el mundo han estado utilizando durante más de 300 años (antes de que las computadoras personales estuvieran disponibles). En 1642, B. Pascal, tratando de ayudar a su padre en los cálculos al recaudar impuestos, crea un dispositivo de suma de cinco dígitos ("Pascalina" ), construido sobre la base de ruedas dentadas. En los años siguientes, creó dispositivos de seis y ocho dígitos que fueron diseñados para sumar y restar números decimales. En 1672, el científico alemán G.W. Leibniz crea una calculadora mecánica digital para operaciones aritméticas con números decimales de doce dígitos. Fue la primera calculadora en realizar todas las operaciones aritméticas. El mecanismo, llamado "Rueda de Leibniz", hasta la década de 1970. reproducido en varias calculadoras portátiles. En 1821 se inició la producción industrial de sumadoras. En 1836–48 C. Babbage completó el proyecto de una computadora decimal mecánica (llamada por él motor analítico), que puede considerarse como un prototipo mecánico de las computadoras futuras. El programa de cálculo, los datos y el resultado se registraron en tarjetas perforadas. La ejecución automática del programa fue proporcionada por el dispositivo de control. El coche no fue construido. En 1934 - 38 K. Zuse creó una computadora binaria mecánica (longitud de palabra22 dígitos binarios; memoria64 palabras; operaciones de punto flotante). Inicialmente, el programa y los datos se ingresaban manualmente. Aproximadamente un año después (después del comienzo del diseño), se fabricó un dispositivo para ingresar un programa y datos de una película perforada, y se reemplazó una unidad aritmética mecánica (AU) por una AU construida sobre relés telefónicos. En 1941, Zuse, con la participación del ingeniero austríaco H. Schreier, creó la primera computadora binaria de relés completamente funcional con control de programa (Z3) del mundo. En 1942, Zuse también creó la primera computadora digital de control (S2) del mundo, que se utilizó para controlar aviones de proyectiles. Debido al secreto del trabajo realizado por Zuse, sus resultados se conocieron solo después del final de la Segunda Guerra Mundial. El primer lenguaje de programación de alto nivel del mundo Plankalkül (Plankalkül alemán - plan de cálculo) fue creado por Zuse en 1943-45, publicado en 1948. Las primeras computadoras electrónicas digitales, comenzando con la computadora estadounidense ENIAC [(ENIAC - Electronic Numerical Integrator and Computer - integrador numérico electrónico y calculadora); comienzo del desarrollo - 1943, presentado al público en 1946], fueron creados como un medio para automatizar cálculos matemáticos.

Creando la Ciencia de la Computación con Máquinas Programables. todo r siglo 20 comenzó la producción de computadoras digitales, que en los EE. UU. Y Gran Bretaña se denominaron computadoras (computadoras), y en la URSS, computadoras electrónicas (computadoras). Desde la década de 1950 en el Reino Unido y a partir de la década de 1960 en los EE. UU., comenzó a desarrollarse la ciencia de la computación con la ayuda de máquinas programables, llamada Computer Science (ciencias de la computación). en 1953 Universidad de Cambridge se formó un programa en la especialidad Informática; en los EE.UU. se introdujo un programa similar en 1962 en la Universidad de Purdue.

En Alemania, la ciencia de la computación se llamaba Informatik (ciencias de la computación). En la URSS, el campo de la investigación y la ingeniería dedicado a la construcción y aplicación de máquinas programables se denominó "tecnología informática". En diciembre de 1948, I. S. Bruk y B. I. Rameev recibieron el primer certificado de derechos de autor en la URSS por la invención de una máquina digital automática. En la década de 1950 se creó la primera generación de computadoras domésticas (elemento base - lámparas electrónicas): 1950 - MESM (la primera computadora electrónica soviética, desarrollada bajo el liderazgo de S. A. Lébedev ); 1952 - M-1, BESM (hasta 1953 la computadora más rápida de Europa); 1953 - "Flecha" (la primera computadora producida en masa en la URSS); 1955 - Ural-1 de la familia Ural de computadoras digitales de propósito general (diseñador jefe B. I. Rameev).

Mejorar los métodos y medios de automatización. Con la creciente disponibilidad de computadoras para usuarios de diversos campos de actividad, que comenzó en la década de 1970, hay una disminución en la proporción de problemas matemáticos resueltos usando computadoras (originalmente creadas como un medio para automatizar cálculos matemáticos), y un aumento en la cuota de problemas no matemáticos (comunicación, búsqueda, etc.). .). Cuando en la segunda mitad de la década de 1960. comenzaron a producirse terminales de computadora con pantallas, comenzó el desarrollo de programas editores de pantalla para ingresar, guardar y corregir texto con su visualización en pantalla completa [uno de los primeros editores de pantalla fue O26, creado en 1967 para operadores de consolas de computadoras de la serie CDC 6000 ; en 1970 se desarrolló vi, el editor de pantalla estándar para los sistemas operativos Unix y Linux]. El uso de editores de pantalla no solo aumentó la productividad de los programadores, sino que también creó los requisitos previos para cambios significativos en las herramientas para la construcción automatizada de modelos simbólicos de objetos arbitrarios. Por ejemplo, el uso de editores de pantalla para la formación de textos con diversos fines (artículos y libros científicos, manuales, etc.) ya en la década de 1970. permitió aumentar significativamente la productividad de la creación de recursos de información de texto. En junio de 1975, el investigador estadounidense Alan Kay [el creador del lenguaje de programación orientado a objetos Smalltalk (Smalltalk) y uno de los autores de la idea de una computadora personal] en el artículo "Personal Computing" (« Informática personal» ) escribió: “Imagínate a ti mismo como el dueño de una máquina de conocimiento autónoma en un estuche portátil que tiene el tamaño y la forma de un cuaderno ordinario. ¿Cómo lo usarías si sus sensores fueran superiores a tu vista y oído, y su memoria te permitiera almacenar y recuperar, si es necesario, miles de páginas de materiales de referencia, poemas, cartas, recetas, así como dibujos, animaciones, música? , gráficos, modelos dinámicos y algo más que le gustaría crear, recordar y cambiar? . Esta afirmación reflejaba el giro que se había producido para ese momento en el planteamiento de la construcción y aplicación de máquinas programables: desde herramientas de automatización, principalmente de cálculo matemático, hasta herramientas para la resolución de problemas de diversos campos de actividad. En 1984 Kurzweil Music Systems (KMS), creado por el inventor estadounidense Raymond Kurzweil, produjo el primer sintetizador de música digital del mundo, el Kurzweil 250. Fue la primera computadora dedicada del mundo que convirtió los caracteres gestuales escritos en el teclado en sonidos musicales.

Mejora de los métodos y medios de interacción de la información. En 1962, los investigadores estadounidenses J. Licklider y W. Clark publicaron un informe sobre la interacción hombre-máquina en línea. El informe contenía una justificación de la conveniencia de construir una red global como una plataforma de infraestructura que brinda acceso a los recursos de información alojados en computadoras conectadas a esta red. La justificación teórica de la conmutación de paquetes en la transmisión de mensajes en redes informáticas se proporcionó en un artículo publicado en 1961 por el científico estadounidense L. Kleinrock.En 1971 R. Tomlinson (EE.UU.) inventó el correo electrónico, en 1972 se implementó este servicio. El evento clave en la historia de la creación de Internet fue la invención en 1973 por los ingenieros estadounidenses V. Cerf y R. Kahn del protocolo de control de transmisión - TCP. En 1976 demostraron la transmisión de un paquete de red a través de Protocolo TCP. En 1983, se estandarizó la familia de protocolos TCP/IP. En 1984, se creó el Sistema de Nombres de Dominio (DNS) (ver. Dominio en informática). En 1988 se desarrolló un protocolo de chat [servicio de intercambio de Internet mensajes de texto en tiempo real (IRC - Internet Relay Chat)]. En 1989, se implementó el proyecto Web (ver. La red mundial) desarrollado por T. berners lee. 6.6.2012 - un día significativo en la historia de Internet: los principales proveedores de Internet, fabricantes de equipos para Red de computadoras y las empresas web comenzaron a utilizar el protocolo IPv6 (junto con el protocolo IPv4), resolviendo prácticamente el problema de escasez de direcciones IP (ver Internet). El alto ritmo de desarrollo de Internet se ve facilitado por el hecho de que, desde sus inicios, los profesionales involucrados en las tareas científicas y técnicas de la construcción de Internet han estado intercambiando ideas y soluciones sin demora utilizando sus capacidades. Internet se ha convertido en una plataforma de infraestructura para un entorno hombre-máquina para resolver problemas. Sirve como una infraestructura de comunicación. Correo electrónico, red, los motores de búsqueda, telefonía por internet(telefonía IP) y otros servicios de Internet utilizados en la informatización de la educación, la ciencia, la economía, controlado por el gobierno y otras actividades. Los servicios electrónicos creados sobre la base de Internet han hecho posible el funcionamiento exitoso de una variedad de entidades comerciales y no comerciales de Internet: tiendas en línea, redes sociales [Facebook (Facebook), VKontakte, Twitter (Twitter), etc.], búsqueda motores [Google (Google), Yandex (Yandex) y otros], recursos web enciclopédicos [Wikipedia (Wikipedia), Webopedia, etc.], bibliotecas electrónicas [World Digital Library (World Digital Library), Scientific Electronic Library eLibrary, etc.] , portales de información corporativos y gubernamentales, etc.

Desde la década de 2000, la cantidad de soluciones de Internet ha crecido rápidamente: " casa inteligente"(Smart House), "sistema de energía inteligente" (Smart Grid), etc., que incorpora el concepto de "Internet de las cosas" (Internet de las cosas). Las soluciones M2M (M2M - Machine-to-Machine) basadas en tecnologías de la información de interacción máquina a máquina y diseñadas para monitorear sensores de temperatura, medidores de electricidad, medidores de agua, etc. se están desarrollando con éxito; seguimiento de la ubicación de objetos en movimiento basado en los sistemas GLONASS y GPS (ver. Sistema de posicionamiento satelital); control de acceso a los objetos protegidos, etc.

Registro oficial de informática en la URSS. La informática se formalizó oficialmente en la URSS en 1983, cuando se formó el Departamento de Informática, Ingeniería Informática y Automatización como parte de la Academia de Ciencias de la URSS. Incluía el Instituto de Problemas Informáticos de la Academia de Ciencias de la URSS, establecido en el mismo año, así como el Instituto de Matemáticas Aplicadas de la Academia de Ciencias de la URSS, el Centro de Computación de la Academia de Ciencias de la URSS, el Instituto de Transmisión de Información Problemas de la Academia de Ciencias de la URSS y varios otros institutos. En la primera etapa se consideró principal la investigación en el campo del hardware y software para la computación masiva y los sistemas basados ​​en ellos. Los resultados obtenidos se convertirían en la base para la creación de una familia de computadoras personales (PC) domésticas y su aplicación para la informatización de actividades científicas, educativas y otras relevantes.

Problemas y perspectivas

Apoyo metodológico para la construcción de un s-ambiente personal. En los próximos años, una de las áreas de actualidad de apoyo metodológico para la mejora del s-environment estará asociada a la creación de sistemas personalizados de resolución de problemas, cuyo hardware se coloca en el equipo del usuario. Velocidades de tecnología avanzada Comunicación inalámbrica ya es suficiente para resolver muchos problemas basados ​​en servicios de Internet. Se espera que para 2025 la velocidad y el predominio de las tecnologías de comunicación inalámbrica alcancen niveles en los que parte de las interfaces cableadas actuales serán reemplazadas por las inalámbricas. La reducción de los precios de los servicios de Internet también contribuirá a la promoción de tecnologías para personalizar el entorno del usuario. Los problemas reales asociados con la personalización del entorno s son: la creación de sistemas simbólicos y de codificación más avanzados; conversión de hardware-software de mensajes de audio y táctiles enviados por una persona en gráficos, representados por una composición de texto, hipertexto, caracteres especiales e imágenes; mejoramiento tecnológico y unificación de interfaces inalámbricas [principalmente interfaces de video (salida a elección del usuario: en lentes especiales, pantallas de monitor, TV u otro dispositivo de salida de video)].

El soporte metodológico para construir un s-environment personal debe basarse en los resultados de la investigación en el campo de la inteligencia artificial destinada a construir no una máquina simuladora de inteligencia humana, sino un socio inteligente controlado por una persona. El desarrollo de tecnologías para la construcción de un s-environment personal implica la mejora de metodologías para el aprendizaje a distancia, la interacción, etc.

En los países de habla inglesa, se usa el término informática: informática.

La base teórica de la informática es un conjunto de ciencias fundamentales como son: teoría de la información, teoría de algoritmos, lógica matemática, teoría de lenguajes formales y gramáticas, análisis combinatorio, etc. Además de ellos, la informática incluye secciones como arquitectura de computadoras, sistemas operativos, teoría de bases de datos, tecnología de programación y muchas otras. Importante a la hora de definir la informática como ciencia es que, por un lado, se ocupa del estudio de los dispositivos y principios de funcionamiento de la tecnología informática y, por otro lado, de la sistematización de técnicas y métodos para trabajar con programas que controlar esta tecnología.

La tecnología de la información es un conjunto de herramientas específicas de hardware y software que se utilizan para realizar una variedad de operaciones de procesamiento de información en todas las esferas de nuestra vida y actividades. La tecnología de la información a veces se denomina tecnología informática o informática aplicada.

Información analógica y digital.

El término "información" proviene del latín informatio, explicación, exposición, conciencia.

La información se puede clasificar de diferentes maneras, y las diferentes ciencias lo hacen de diferentes maneras. Por ejemplo, en filosofía se distingue entre información objetiva y subjetiva. La información objetiva refleja los fenómenos de la naturaleza y la sociedad humana. La información subjetiva es creada por personas y refleja su visión de los fenómenos objetivos.

En informática, la información analógica y la información digital se consideran por separado. Esto es importante, porque una persona, gracias a sus sentidos, está acostumbrada a manejar información analógica, mientras que la tecnología informática, por el contrario, trabaja principalmente con información digital.

Una persona percibe la información a través de los sentidos. La luz, el sonido, el calor son señales de energía, y el gusto y el olfato son el resultado de la exposición a compuestos químicos, que también se basan en la naturaleza energética. Una persona experimenta impactos de energía continuamente y es posible que nunca encuentre la misma combinación de ellos dos veces. No hay dos hojas verdes idénticas en un árbol y dos sonidos absolutamente idénticos: esta es información analógica. Si asigna números a diferentes colores y notas a diferentes sonidos, la información analógica se puede convertir en información digital.

La música, cuando se escucha, transmite información analógica, pero cuando se escribe, se vuelve digital.

La diferencia entre la información analógica y la información digital es, en primer lugar, que la información analógica es continua, mientras que la información digital es discreta.

Los dispositivos digitales incluyen computadoras personales: funcionan con información presentada en forma digital, y los reproductores de música de discos compactos láser también son digitales.

Codificación de la información.

La codificación de la información es el proceso de formar una determinada representación de la información. .

En un sentido más estricto, el término "codificación" suele entenderse como la transición de una forma de presentación de la información a otra, más conveniente para el almacenamiento, la transmisión o el procesamiento.

Una computadora solo puede procesar información presentada en forma numérica. Toda otra información (sonidos, imágenes, lecturas de instrumentos, etc.) debe convertirse en forma numérica para su procesamiento en una computadora. Por ejemplo, para cuantificar el sonido musical, se puede medir la intensidad del sonido en ciertas frecuencias a intervalos cortos, presentando los resultados de cada medición en forma numérica. Con la ayuda de programas de computadora, es posible transformar la información recibida, por ejemplo, "superponer" sonidos de diferentes fuentes uno encima del otro.

De manera similar, la información textual se puede procesar en una computadora. Cuando se ingresa a una computadora, cada letra se codifica con un número determinado, y cuando se envía a dispositivos externos (pantalla o impresión), para la percepción humana, se construyen imágenes de letras usando estos números. La correspondencia entre un conjunto de letras y números se denomina codificación de caracteres.

Como regla general, todos los números en la computadora se representan usando ceros y unos (y no diez dígitos, como es costumbre entre las personas). En otras palabras, las computadoras generalmente operan en binario. sistema numérico, ya que en este caso los dispositivos para su procesamiento son mucho más sencillos.

Unidades de medida de la información. Un poco. Byte.

Un bit es la unidad más pequeña de representación de información. Byte: la unidad más pequeña de procesamiento y transmisión de información .

Al resolver varios problemas, una persona usa información sobre el mundo que nos rodea. A menudo se escucha que un mensaje lleva poca información o, por el contrario, contiene información exhaustiva, mientras que diferentes personas que reciben el mismo mensaje (por ejemplo, después de leer un artículo en un periódico) estiman de manera diferente la cantidad de información contenida en él. Esto significa que el conocimiento de la gente sobre estos eventos (fenómenos) antes de recibir el mensaje era diferente. La cantidad de información en un mensaje depende de qué tan nuevo sea el mensaje para el destinatario. Si como resultado de la recepción de un mensaje se logra una total claridad sobre un determinado tema (es decir, desaparece la incertidumbre), se dice que se ha recibido una información exhaustiva. Esto significa que no hay necesidad de información adicional sobre este tema. Por el contrario, si después de recibir el mensaje la incertidumbre seguía siendo la misma (la información reportada ya era conocida o no era relevante), entonces no se recibió información (información cero).

Lanzar una moneda y verla caer proporciona cierta información. Ambos lados de la moneda son "iguales", por lo que ambos lados tienen la misma probabilidad de salir. En tales casos, se dice que el evento transporta información en 1 bit. Si ponemos dos bolas de diferentes colores en una bolsa, al dibujar a ciegas una bola, también obtendremos información sobre el color de la bola en 1 bit.

La unidad de medida de la información se llama bit (bit), una abreviatura de las palabras en inglés dígito binario, que significa un digito binario.

A tecnologia computacional un bit corresponde al estado físico del portador de información: magnetizado - no magnetizado, hay un agujero - no hay agujero. En este caso, un estado generalmente se denota con el número 0 y el otro con el número 1. Elegir una de las dos opciones posibles también le permite distinguir entre la verdad lógica y la falsedad. Una secuencia de bits puede codificar texto, imagen, sonido o cualquier otra información. Este método de presentar información se llama codificación binaria. (codificación binaria) .

En informática, a menudo se usa una cantidad llamada byte y es igual a 8 bits. Y si el bit le permite elegir una opción entre dos posibles, entonces el byte, respectivamente, es 1 de 256 (2 8). Junto con los bytes, se utilizan unidades más grandes para medir la cantidad de información:

1 KB (un kilobyte) = 2\up1210 bytes = 1024 bytes;

1 MB (un megabyte) = 2\up1210 KB = 1024 KB;

1 GB (un gigabyte) = 2\up1210 MB = 1024 MB.

Por ejemplo, un libro contiene 100 páginas; 35 líneas por página, 50 caracteres por línea. El volumen de información contenida en el libro se calcula de la siguiente manera:

La página contiene 35 × 50 = 1750 bytes de información. El volumen de toda la información del libro (en diferentes unidades):

1750 × 100 = 175 000 bytes.

175.000 / 1024 = 170,8984 KB.

170,8984 / 1024 = 0,166893 MB.

Expediente. Formatos de archivo.

Un archivo es la unidad más pequeña de almacenamiento de información que contiene una secuencia de bytes y tiene un nombre único.

El propósito principal de los archivos es almacenar información. También están diseñados para transferir datos de un programa a otro y de un sistema a otro. En otras palabras, un archivo es un repositorio de datos estables y móviles. Pero, un archivo es más que un simple almacén de datos. El archivo suele tener nombre, atributos, hora de modificación y hora de creación.

Una estructura de archivos es un sistema para almacenar archivos en un dispositivo de almacenamiento, como un disco. Los archivos se organizan en directorios (a veces llamados directorios o carpetas). Cualquier directorio puede contener un número arbitrario de subdirectorios, cada uno de los cuales puede almacenar archivos y otros directorios.

La forma en que se organizan los datos en bytes se denomina formato de archivo. .

Para leer un archivo, como una hoja de cálculo, necesita saber cómo los bytes representan los números (fórmulas, texto) en cada celda; para leer un archivo de editor de texto, uno debe saber qué bytes representan caracteres y qué fuentes o campos, y otra información.

Los programas pueden almacenar datos en un archivo de la manera elegida por el programador. Sin embargo, a menudo se espera que los archivos sean utilizados por diferentes programas, por lo que muchos programas de aplicación admiten algunos de los formatos más comunes para que otros programas puedan comprender los datos del archivo. Las empresas de software (que quieren que su software se convierta en "estándar") a menudo publican información sobre los formatos que crean para que puedan usarse en otras aplicaciones.

Todos los archivos se pueden dividir condicionalmente en dos partes: texto y binario.

Los archivos de texto son el tipo de datos más común en el mundo de la informática. La mayoría de las veces se asigna un byte para almacenar cada carácter, y los archivos de texto se codifican usando tablas especiales en las que cada carácter corresponde a un número determinado que no excede los 255. Un archivo que usa solo 127 primeros números para codificar se llama ASCII- (abreviatura de American Standard Code for Information Intercange - código estándar estadounidense para el intercambio de información), pero dicho archivo no puede contener letras que no sean latinas (incluido el ruso). La mayoría de los alfabetos nacionales se pueden codificar mediante una tabla de ocho bits. Para el idioma ruso, el más popular. este momento tres codificaciones: Koi8-R, Windows-1251 y la llamada codificación alternativa (alt).

Los idiomas como el chino contienen significativamente más de 256 caracteres, por lo que se utilizan varios bytes para codificar cada carácter. Para ahorrar espacio, a menudo se usa el siguiente truco: algunos caracteres se codifican usando un byte, mientras que otros usan dos o más bytes. Un intento de generalizar este enfoque es el estándar Unicode, que utiliza un rango de números de cero a 65.536 para codificar caracteres, un rango tan amplio que permite representar numéricamente los caracteres de un idioma de cualquier rincón del planeta.

Pero los archivos de texto puro son cada vez más raros. Los documentos a menudo contienen imágenes y diagramas, y se utilizan varias fuentes. Como resultado, aparecen formatos que son varias combinaciones de datos textuales, gráficos y de otro tipo.

Los archivos binarios, a diferencia de los archivos de texto, no son tan fáciles de ver y, por lo general, no contienen palabras familiares, solo muchos caracteres oscuros. Estos archivos no están destinados a que los humanos puedan leerlos directamente. Ejemplos de archivos binarios son programas ejecutables y archivos gráficos.

Ejemplos de codificación binaria de información.

Entre la variedad de información que se procesa en una computadora, una parte significativa es información numérica, textual, gráfica y de audio. Conozcamos algunas formas de codificar este tipo de información en una computadora.

Codificación de números.

Hay dos formatos principales para representar números en la memoria de la computadora. Uno de ellos se usa para codificar números enteros, el segundo (la llamada representación de punto flotante de un número) se usa para especificar un determinado subconjunto de números reales.

El conjunto de números enteros que se pueden representar en la memoria de la computadora es limitado. El rango de valores depende del tamaño del área de memoria utilizada para almacenar los números. A k-bit celda puede almacenar 2 k diferentes valores de números enteros .

Para obtener la representación interna de un entero positivo norte guardado en k-palabra de máquina de bits, necesita:

1) traducir el número N al sistema numérico binario;

2) el resultado obtenido se complementa a la izquierda con ceros insignificantes hasta k dígitos.

Por ejemplo, para obtener la representación interna del entero 1607 en una celda de 2 bytes, el número se convierte a binario: 1607 10 = 11001000111 2 . La representación interna de este número en la celda es: 0000 0110 0100 0111.

Para escribir la representación interna de un entero negativo (–N), necesitas:

1) obtener la representación interna de un número positivo norte;

2) obtenga el código de retorno de este número, reemplazando 0 con 1 y 1 con 0;

3) suma 1 al número recibido.

La representación interna de un entero negativo es -1607. Usando el resultado del ejemplo anterior, la representación interna del número positivo 1607 se escribe: 0000 0110 0100 0111. El código inverso se obtiene invirtiendo: 1111 1001 1011 1000. Se agrega uno: 1111 1001 1011 1001 - este es el código interno representación binaria del número -1607.

El formato de punto flotante utiliza una representación de número real R como producto de la mantisa metro basado en el sistema numérico norte hasta cierto punto pags, que se llama el orden: R = metro * notario público.

La representación de un número en forma de coma flotante es ambigua. Por ejemplo, las siguientes igualdades son verdaderas:

12.345 \u003d 0.0012345 × 10 4 \u003d 1234.5 × 10 -2 \u003d 0.12345 × 10 2

La mayoría de las veces, las computadoras usan una representación normalizada de un número en forma de punto flotante. La mantisa en esta representación debe cumplir la condición:

0.1 pJ metro pags . En otras palabras, la mantisa es menor que 1 y el primer dígito significativo no es cero ( pags es la base del sistema numérico).

En la memoria de la computadora, la mantisa se representa como un número entero que contiene solo dígitos significativos (0 enteros y una coma no se almacenan), por lo que para el número 12.345, el número 12.345 se almacenará en la celda de memoria asignada para almacenar la mantisa. restaurar de forma única el número original, solo queda guardarlo orden, en este ejemplo es 2.

Codificacion de texto.

El conjunto de caracteres que se utilizan para escribir un texto se denomina alfabeto. El número de caracteres en un alfabeto se llama su cardinalidad.

Para representar información textual en una computadora, se usa con mayor frecuencia un alfabeto con una capacidad de 256 caracteres. Un carácter de dicho alfabeto lleva 8 bits de información, ya que 2 8 \u003d 256. Pero 8 bits forman un byte, por lo tanto, el código binario de cada carácter ocupa 1 byte de memoria de la computadora.

Todos los caracteres de dicho alfabeto están numerados del 0 al 255, y cada número corresponde a un código binario de 8 bits del 00000000 al 11111111. Este código es el número ordinal del carácter en el sistema numérico binario.

Para diferentes tipos de computadoras y sistemas operativos, se utilizan diferentes tablas de codificación, que difieren en el orden en que se colocan los caracteres alfabéticos en la tabla de codificación. norma internacional para Computadoras personales es la tabla de codificación ASCII ya mencionada.

El principio de la codificación alfabética secuencial es que en la tabla de códigos ASCII, las letras latinas (mayúsculas y minúsculas) se organizan en orden alfabético. La disposición de los números también se ordena en orden ascendente de valores.

Solo los primeros 128 caracteres son estándar en esta tabla, es decir, caracteres con números desde cero (código binario 00000000) hasta 127 (01111111). Esto incluye letras del alfabeto latino, números, signos de puntuación, corchetes y algunos otros símbolos. Los 128 códigos restantes, comenzando con 128 (código binario 10000000) y terminando con 255 (11111111), se utilizan para codificar letras de alfabetos nacionales, pseudográficos y símbolos científicos.

Codificación de la información gráfica.

La memoria de video contiene información binaria sobre la imagen que se muestra en la pantalla. Casi todas las imágenes creadas, procesadas o vistas con una computadora se pueden dividir en dos grandes partes: gráficos de trama y gráficos vectoriales.

Las imágenes rasterizadas son una cuadrícula de una sola capa de puntos llamados píxeles (píxel, del elemento de imagen en inglés). El código de píxel contiene información sobre su color.

Para una imagen en blanco y negro (sin medios tonos), un píxel puede tomar solo dos valores: blanco y negro (se enciende - no se enciende), y un bit de memoria es suficiente para codificarlo: 1 - blanco, 0 - negro.

Un píxel en una pantalla a color puede tener diferentes colores, por lo que un bit por píxel no es suficiente. Se requieren dos bits por píxel para codificar una imagen de 4 colores porque dos bits pueden adoptar 4 estados diferentes. Por ejemplo, se puede usar esta opción de codificación de colores: 00 - negro, 10 - verde, 01 - rojo, 11 - marrón.

En los monitores RGB, toda la variedad de colores se obtiene combinando los colores básicos: rojo (Rojo), verde (Verde), azul (Azul), de los cuales puede obtener 8 combinaciones básicas:

Por supuesto, si tiene la capacidad de controlar la intensidad (brillo) del brillo de los colores básicos, entonces aumenta la cantidad de opciones diferentes para sus combinaciones, generando varios tonos. Número de colores diferentes - A y el número de bits para codificarlos - norte están interconectados por una fórmula simple: 2 norte = A.

A diferencia de los gráficos de trama imagen vectorial en capas. Cada elemento de una imagen vectorial (una línea, un rectángulo, un círculo o un fragmento de texto) está ubicado en su propia capa, cuyos píxeles se configuran independientemente de otras capas. Cada elemento de una imagen vectorial es un objeto que se describe utilizando un lenguaje especial (ecuaciones matemáticas de líneas, arcos, círculos, etc.) Los objetos complejos (líneas quebradas, varias formas geométricas) se representan como un conjunto de objetos gráficos elementales.

Los objetos de imágenes vectoriales, a diferencia de los gráficos rasterizados, pueden cambiar su tamaño sin perder calidad (el granulado aumenta cuando se amplía una imagen rasterizada).

Codificación de sonido.

Sabemos por la física que el sonido son vibraciones del aire. Si convierte el sonido en una señal eléctrica (por ejemplo, usando un micrófono), puede ver un voltaje que cambia suavemente con el tiempo. Para el procesamiento por computadora, dicha señal analógica debe convertirse de alguna manera en una secuencia de números binarios.

Esto se hace, por ejemplo, así: el voltaje se mide a intervalos regulares y los valores resultantes se registran en la memoria de la computadora. Este proceso se denomina muestreo (o digitalización), y el dispositivo que lo realiza se denomina convertidor de analógico a digital (ADC).

Para reproducir el sonido codificado de esta manera, debe realizar la conversión inversa (para esto, se utiliza un convertidor de digital a analógico). - DAC), y luego suavizar la señal de paso resultante.

Cuanto mayor sea la frecuencia de muestreo y más bits asignados para cada muestra, con mayor precisión se representará el sonido, pero también aumentará el tamaño del archivo de sonido. Por lo tanto, dependiendo de la naturaleza del sonido, los requisitos de calidad y la cantidad de memoria ocupada, se eligen algunos valores de compromiso.

El método descrito para codificar información de sonido es bastante universal, le permite representar cualquier sonido y transformarlo de varias maneras. Pero hay momentos en los que es más beneficioso actuar de otra manera.

Durante mucho tiempo se ha utilizado una forma bastante compacta de representar la música: la notación musical. Indica con símbolos especiales qué altura tiene el sonido, en qué instrumento y cómo tocar. De hecho, puede considerarse un algoritmo para un músico, escrito en un lenguaje formal especial. En 1983, los principales fabricantes de computadoras y sintetizadores musicales desarrollaron un estándar que definía dicho sistema de códigos. Se llama MIDI.

Por supuesto, dicho sistema de codificación no le permite grabar todos los sonidos, solo es adecuado para música instrumental. Pero también tiene ventajas innegables: una grabación extremadamente compacta, naturalidad para un músico (casi cualquier editor MIDI permite trabajar con música en forma de notas ordinarias), facilidad para cambiar de instrumento, cambiar el tempo y la tonalidad de la melodía.

Existen otros formatos de grabación de música puramente informáticos. Entre ellos está el formato MP3, que permite codificar música con una calidad y una relación de compresión muy altas, mientras que en lugar de 18 a 20 composiciones musicales, en un disco compacto estándar (CDROM) se colocan unas 200. Una canción ocupa aproximadamente 3,5 Mb, lo que permite Es fácil para los usuarios de Internet intercambiar composiciones musicales.

La computadora es una máquina de información universal.

Uno de los propósitos principales de una computadora es el procesamiento y almacenamiento de información. Con la llegada de las computadoras, se hizo posible operar con volúmenes de información antes impensables. Las bibliotecas que contienen literatura científica y de ficción se están convirtiendo a formato electrónico. Los archivos de fotografías y películas antiguas están ganando nueva vida en formato digital.

Anna Chugainova

El nombre general "documentación", que a veces sirve como sinónimo del término "I". En 1931, el Instituto Bibliográfico Internacional fue fundado por P. Otlet y un abogado y figura pública belga. Lafontaine en 1895, pasó a llamarse Instituto Internacional de Documentación, y en 1938 - Federación Internacional de Documentación, que sigue siendo la principal organización internacional que reúne a especialistas en . y actividades científicas y de información (ver Documentación Federación Internacional). En 1945, el científico e ingeniero estadounidense W. Bush publicó El posible mecanismo de nuestro pensamiento, en el que por primera vez se planteó ampliamente la cuestión de la necesidad de mecanizar la recuperación de información. Las conferencias internacionales sobre información científica (Londres, 1948; Washington, 1958) marcaron las primeras etapas en el desarrollo de I. El estudio de los patrones de dispersión de las publicaciones científicas realizado fue de gran importancia. Bradford (Reino Unido, 1948). Hasta mediados de los 60. siglo 20 se desarrollaron principalmente principios y métodos de recuperación de información y medios técnicos para su implementación. W. Batten (Gran Bretaña), . Muers y. Taube (EE. UU.) sentó las bases para la indexación de coordenadas; . Vickery, . Fosket (Gran Bretaña), J. Perry, A. Kent, J. Costello, . P. Lun, . Bernier (Estados Unidos), . C. Garden (Francia) desarrolló los fundamentos de la teoría y metodología de recuperación de información; S. Cleverdon (Gran Bretaña) investigó métodos para comparar la eficiencia técnica de sistemas de recuperación de información de varios tipos; R. Shaw (EE. UU.) y J. Samin (Francia) crearon los primeros dispositivos de recuperación de información en microfilms y diamicrocards, que sirvieron como prototipos para muchas máquinas de información especiales; K. Muller y C. Carlson (EE. UU.) propusieron nuevos métodos de reproducción de documentos, que constituyeron la base de las modernas técnicas de reprografía. La etapa actual en el desarrollo de la información (década de 1970) se caracteriza por una comprensión más profunda del significado científico general de la actividad de información científica y por el uso cada vez más amplio de computadoras electrónicas en ella. D. Price (EE.UU.), desarrollando las ideas de J. Bernal (Gran Bretaña), señaló la posibilidad de medir los procesos de desarrollo de la ciencia utilizando indicadores y medios de I.; . Garfield (EE.UU.) desarrolló e introdujo nuevos métodos de servicio de información científica; G. Menzel y W. Garvey (EE.UU.) estudiaron las necesidades de información de científicos y especialistas, la importancia de varios procesos de comunicación científica. La teoría general de I. en el extranjero se forma en los trabajos de A. Avramescu (Rumania), A. Vysotsky y M. Dembovskaya (Polonia), I. Koblitz (RDA), A. Merta (Checoslovaquia), I. Polzovich (Hungría), . Peach (Alemania), A. Rees, R. Taylor, J. Shira (EE. UU.), R. Fairthorn (Gran Bretaña) y otros. En la URSS, el desarrollo de las actividades científicas y de información fue paralelo al desarrollo de la ciencia soviética. y la economía nacional. En los años 30. siglo 20 funcionó la Comisión para la Publicación de Índices (Índices) de Literatura Científica, comenzaron a aparecer revistas de resúmenes de la Academia de Ciencias de la URSS en ciencias físicas y matemáticas, química, etc. (ver Bibliografía). Esta actividad comenzó a desarrollarse con especial intensidad a partir de los años 50. La formación de I. como disciplina científica independiente se remonta a finales de los años 40 y principios de los 50. En la URSS, la información se institucionalizó en 1952, cuando se estableció el Instituto de Información Científica de la Academia de Ciencias de la URSS, ahora el Instituto de Información Científico y Técnico de toda la Unión (VINITI). Desde 1959, el Consejo de Ministros de la URSS ha adoptado una serie de resoluciones destinadas a mejorar y desarrollar un sistema nacional unificado de información científica y técnica. Tres conferencias de toda la Unión sobre el procesamiento automatizado de información científica (en 1961, 1963 y 1966) fueron etapas importantes en el desarrollo de la tecnología de la información en la URSS. De gran importancia para el desarrollo de la teoría de I. fue el simposio internacional de los países miembros del Consejo de Asistencia Económica Mutua y Yugoslavia sobre problemas teóricos de la informática (Moscú, 1970), y para la mejora de los medios técnicos de I. .- las exposiciones internacionales "Inforga-65" e "Interorgtekhnika-66", que demostraron los medios técnicos de mecanización y automatización complejas de los procesos de procesamiento, almacenamiento, búsqueda y difusión de información científica. Muchos estudios de Russian I. formaron la base para su desarrollo posterior: en el campo de la teoría general de I. - el trabajo de V. A. Uspensky, Yu. A. Shreider; construcción de sistemas de recuperación de información - G. E. Vladutsa, D. G. Lakhuti, E. . Skorokhodko, V. P. Cherenina; problemas científicos de I. - G. M. Dobrova, V. V. Nalimova; documentales - G. G. Vorobyova, K. R. Simona,. I. Shamurina; creación de dispositivos de recuperación de información y otros medios técnicos - . I. Gutenmakher, V. A. Kalmanson, B. M. Rakov y otros I. se divide en las siguientes secciones: teoría de I. (tema y métodos, contenido, estructura y propiedades de la información científica), comunicación científica (procesos informales y formales, actividad de información científica), recuperación de información, difusión y uso de información científica, organización e historia de la actividad de información científica. Las principales tareas teóricas. consisten en revelar los patrones generales de la creación de información científica, su transformación, transmisión y uso en diversas esferas de la actividad humana. I. no estudia ni desarrolla criterios para evaluar la veracidad, novedad y utilidad de la información científica, así como métodos para su procesamiento lógico a fin de obtener nueva información. Las tareas aplicadas de I. son desarrollar métodos y medios más efectivos para implementar procesos de información, para determinar la comunicación científica óptima tanto dentro de la ciencia como entre la ciencia y la industria. Para el estudio de problemas particulares y la solución de problemas aplicados de tecnología de la información, se utilizan métodos separados: cibernética (en la formalización de los procesos de actividad de información científica para su automatización, en la construcción de máquinas lógicas de información, etc.); teoría matemática de la información (al estudiar las propiedades generales de la información, para asegurar su codificación óptima, almacenamiento a largo plazo , transmisión a distancia); lógica matemática (para formalizar los procesos de inferencia lógica, desarrollar métodos para programar algoritmos de información, etc.); semiótica (al construir sistemas de recuperación de información, elaborar reglas de traducción de lenguajes naturales a artificiales y viceversa, desarrollar principios de indexación, estudiar transformaciones de estructuras de texto que no cambien su significado, etc.); lingüística (en el desarrollo de los principios de traducción automática y lenguajes de recuperación de información, indexación y resumen, métodos de transcripción y transliteración, en la compilación de tesauros, simplificación de la terminología); psicología (al estudiar los procesos de pensamiento de creación y uso de información científica, la naturaleza de las necesidades de información y su formulación en consultas, al desarrollar métodos de lectura efectivos, sistemas de servicio de información de máquinas, diseñar dispositivos de información); ciencia del libro, bibliotecología, bibliografía, archivística (al desarrollar formas óptimas de un documento científico, mejorar los procesos formales de comunicación científica, el sistema de publicaciones secundarias); ciencia de la ciencia (al estudiar los procesos informales de comunicación científica, desarrollar los principios organizativos de un sistema de servicio de información, pronosticar el desarrollo de la ciencia, evaluar su nivel y ritmo, estudiar varias categorías de consumidores de información científica); ciencias técnicas (para proporcionar medios técnicos para los procesos de actividades científicas y de información, su mecanización y automatización). Algunos I. métodos, a su vez, encuentran aplicación en bibliotecología y bibliografía (en la compilación de catálogos, índices, etc.). La información científica refleja las leyes objetivas de la naturaleza, la sociedad y el pensamiento de manera adecuada al estado actual de la ciencia y se utiliza en la práctica sociohistórica. Dado que la base del proceso de cognición es la práctica social, la fuente de información científica no es solo la investigación científica, sino también todo tipo de actividad vigorosa de las personas para transformar la naturaleza y la sociedad. La información científica se divide en tipos según las áreas de su recepción y uso (biológico, político, técnico, químico, económico, etc.), por finalidad (masiva y especial, etc.). Las hipótesis y teorías, que luego resultan ser erróneas, son información científica durante todo el tiempo que sus disposiciones están siendo sistemáticamente estudiadas y probadas en la práctica. El criterio de uso en la práctica sociohistórica permite distinguir la información científica de las verdades conocidas o desfasadas, ideas de ciencia ficción, etc. e) La totalidad de los procesos de presentación, transmisión y recepción de información científica constituye comunicación científica. Sin excepción, los científicos o especialistas siempre están involucrados en todos los procesos de comunicación científica. El grado de su participación puede ser diferente y depende de las especificidades del proceso. Distinguir entre procesos "informales" y "formales". “Informal” se refiere a aquellos procesos que son realizados principalmente por los propios científicos o especialistas: un diálogo directo entre ellos sobre la investigación o el desarrollo en curso, visitas al laboratorio de sus colegas y exposiciones científicas y técnicas, hablar ante una audiencia, intercambiar cartas y reimpresiones de publicaciones, preparación de resultados de investigación o desarrollos para su publicación. Los "formales" incluyen: procesos editoriales, editoriales e impresos; distribución de publicaciones científicas, incluida la venta de libros, bibliotecas y actividades bibliográficas; procesos de intercambio de literatura científica; archivo; en realidad la actividad científica y de información. Todos los procesos “formales”, excepto el último, no son propios de la comunicación científica y se incluyen en el ámbito de la comunicación de masas, cuyos principales medios son la prensa escrita, la radio, la televisión, etc. La mayor complejidad del trabajo científico y la la necesidad de aumentar su eficacia conduce a su ulterior división, que tiene lugar en diferentes planos: en investigación teórica y experimental, en investigación científica, en información científica y en actividades científicas y organizativas. Los servicios de información se dan para realizar tareas cada vez más complejas de selección y procesamiento de información científica, que sólo pueden resolverse con el uso simultáneo de los logros tanto de la información como de las teorías y métodos de ramas específicas de la ciencia. La actividad de información científica consiste en la recopilación, procesamiento, almacenamiento y búsqueda de información científica fijada en documentos, así como en su puesta a disposición de científicos y especialistas con el fin de aumentar la eficiencia de la investigación y el desarrollo. Esta actividad la realizan cada vez más empresas integrales sistemas de información basado en el principio de un solo procesamiento exhaustivo de cada documento científico por parte de especialistas altamente calificados, ingresando los resultados de dicho procesamiento en un complejo de máquinas que consiste en una computadora y una máquina de fotocomposición, y utilizando repetidamente estos resultados para resolver varios problemas de información: publicación de resumen revistas, boletines de información de señales, revisiones analíticas, colecciones de traducciones, para llevar a cabo la difusión selectiva de información (ver Lenguaje de información), trabajos de referencia e información, copia de documentos y otros tipos de servicios de información. Desde mediados de los 40. siglo 20 aparecen las primeras revistas importantes sobre I. en diferentes países: el Journal of Documentation (L., desde 1945); "Tidskrift for Documentation" (Stockh., desde 1945); "Documentación estadounidense" (Washington, desde 1950, desde 1970 - "Revista de la Sociedad Estadounidense de Ciencias de la Información"); "Documentación de pieles Nachrichten" (Fr./M., desde 1950); "Documentación" (Lpz., desde 1953, desde 1969 - "Informatik"). Desde octubre de 1961, la URSS publica la colección mensual "Scientific Información técnica”, que desde 1967 se publica en dos series: “Organización y métodos de trabajo de la información” y “Procesos y sistemas de información”. Desde 1963, VINITI comenzó a publicar primero cada 2 meses, y desde 1966, la revista mensual de resúmenes "Información científica y técnica", que desde 1970 se publica con el nombre de "Informática". Desde 1967, esta revista se publica también en idioma en Inglés. Las siguientes revistas de resúmenes sobre I. se publican en el extranjero: en Gran Bretaña - "Library and Information Science Abstracts" (L., desde 1969; en 1950-68 se llamó "Library Science Abstracts"), en los EE. UU. - "Information Science Abstracts" (Phil. , desde 1969; en 1966-68 se llamó "Documentation Abstracts"), en Francia - "Bulletin signaletique. Información científica y técnica” (P., desde 1970). Desde 1964, se publica la información expresa Teoría y práctica de la información científica, y desde 1965, colecciones de traducciones de publicaciones extranjeras sobre ciencias de la información. Desde 1969, se publica en Kyiv la colección periódica Ciencia de la ciencia y la informática. La formación de trabajadores científicos en I. se lleva a cabo desde 1959 a través de la escuela de posgrado de VINITI, la formación de personal para actividades científicas y de información - desde 1963 en los cursos de formación avanzada para ingenieros líderes y trabajadores técnicos y científicos (desde 1972 - el Instituto de Formación Avanzada de Trabajadores de la Información), la formación de jóvenes científicos - futuros consumidores de información - desde 1964 en el Departamento de Información Científica de la Universidad Estatal de Moscú. M. V. Lomonosov, ingenieros para la mecanización y automatización de procesos de información, en varios institutos politécnicos y de construcción de maquinaria. En el extranjero, las disciplinas de la información se imparten en universidades y escuelas técnicas superiores. Hay una tendencia a unir en una especialización educativa un complejo de problemas de I. y tecnología informática. Lit .: Mikhailov A. I., Cherny A. I., Gilyarevsky R. S., Fundamentals of Informatics, 2nd ed., M., 1968; ellos, Problemas de información en la ciencia moderna, M., 1972; Problemas teóricos de la informática. Se sentó. Art., M., 1968; Foro Internacional de Informática. Se sentó. Art., vol.1-2, M., 1969; Bush V., As we may think, Atlantic Monthly, 1945, julio, p. 101-108; Revisión anual de la ciencia y la tecnología de la información, v. 1-7, N. Y. - a. o., 1966-72; Dembowska M., Documentación e información científica, Varsovia, 1968. A. I. Mikhailov, A. I. Cherny, R. S. Gilyarevsky.

M.: FIZMATLIT, 2006. - 768 p.

El diccionario enciclopédico de referencia contiene más de 18 mil términos en ruso e inglés, sistematizados temáticamente en las siguientes secciones principales: I. Fundamentos de la tecnología de la información; II. Automatización de procesos de información y sistemas automatizados (AC); tercero Soporte técnico de la UA; IV. COMO software; V. Multimedia, hipermedia, realidad virtual, visión artificial; VI. Tecnologías de red para el procesamiento y la transmisión de datos; VIII. Argot informático y de redes; VIII. Pictogramas utilizados en el correo electrónico; IX. Abreviaturas de palabras y expresiones utilizadas en Internet.

Las entradas del diccionario tienen un carácter extenso e incluyen datos de referencia sobre los objetos de descripción, así como enlaces a fuentes documentales primarias para un conocimiento más completo de las mismas por parte de los usuarios interesados.

La estructura y el contenido del diccionario permiten utilizarlo para un estudio sistemático de materiales sobre las secciones y subsecciones temáticas de interés para el lector, para hacer un estudio preliminar de decisiones relacionadas con el diseño de sistemas heterogéneos de información y telecomunicaciones automatizados, y también preparar sobre sus bases los documentos didácticos y metodológicos, de revisión, de referencia, etc.

El diccionario está dirigido a una amplia gama de usuarios cuyas actividades profesionales o intereses están relacionados con las modernas tecnologías de la información.

Formato: djvu

El tamaño: 7.1Mb

Descargar: yandex.disk

CONTENIDO
Prefacio a la edición enciclopédica del diccionario ....................................... 7
Prólogo a la tercera edición del diccionario, sobre el diccionario de referencia y su autor... 9
Del autor .............................................................. ... .... once
Acerca del uso del diccionario .............................................. .13
I. Fundamentos de la tecnología de la información .......................... 15
1.1. Datos, información, conocimiento, lógica.......................................... 15
1.2. Recursos de información, teoría de la información, informática 19
1.3. Soportes de datos, documentos, documentación, publicaciones............... 22
1.4. Principios de Representación Estructurada de Documentos y Datos ....... 27
1.4.1. Elementos de información y sus tipos ............................. 27
1.4.2. Registro, Archivo, Matriz, Clave...................................... 30
1.4.3. Estructuras, modelos de datos y términos relacionados 34
1.4.4. Formato, campo de datos y términos relacionados .......................... 45
1.5. Tecnología de la información.................................. 49
1.5.1. Términos y conceptos generales ................................ 49
1.5.2. Manejo y Procesamiento de Documentos y Datos .......................................... 52
1.5.3. Introducir documentos y datos en un ordenador ................................ 58
1.5.4. Recuperación de información ^ conceptos y términos generales ............... 63
1.5.5. Indexación, búsqueda de imagen de documentos y consultas 66
1.6. Seguridad de la tecnología de la información ................................ 74
1.6.1. Conceptos y términos generales................................... 74
1.6.2. Codificación y decodificación de documentos y datos.......................... 83
1.6.3. Criptología y conceptos relacionados ....................... 87
II. Automatización de procesos de información y sistemas de información automatizados 93
2.1. Conceptos y términos generales .............................................. 93
2.2. Automatización de procesos de información y bibliotecas .......................... 95
2.2.1. Términos relacionados con la automatización ........... 95
2.3. Automatismos................................................. 98
2.3.1. Conceptos y términos generales ............................. 98
2.3.2. Sistemas automatizados funcionalmente orientados ..... 106
2.4. Soporte lingüístico e informativo de los sistemas automatizados 117
2.4.1. Soporte lingüístico ^ Conceptos y términos generales ......... 117
2.4.2. Idiomas de recuperación de información y diccionarios AIS....... 119
2.4.3. Metadatos y formatos AIS 128
2.4.4. Soporte de información de AIS ............................. 147
2.5. Personal y usuarios de sistemas automatizados ............................. 153
2.5.1. Desarrolladores y personal de AIS ............................. 153
2.5.2. Usuarios de AIS ............................................. 157
2.5.3. Certificación de especialistas en AIS ............................. 159
2.6. Procesos de creación y operación de sistemas automatizados .......... 162
2.6.1. Diseño de sistemas automatizados ............................. 162
2.6.2. Integración del sistema y el ciclo de vida de AIS........................... 165
tercero Soporte técnico de sistemas automatizados .......... 169
3.1. Computadoras, sus tipos y clasificación general 169
3.2. Arquitectura, configuración, plataforma informática .......................... 175
3.3. Computadoras personales (PC) ............................. 178
3.4. PC portátiles y dispositivos digitales autónomos para diversos fines ... 185
3.4.1. Tipos de portátiles.................................................. 185
3.4.2. Dispositivos de reproducción y grabación digital 188
3.5. La unidad del sistema y los elementos de su diseño ............................. 191
3.5.1. Procesadores, sus tipos y términos relacionados............... 192
3.5.2. Memoria de computadora ^ conceptos y términos .......................... 202
3.5.3. Dispositivos funcionales de la memoria de la computadora .......... 208
3.5.4. Adaptadores, interfaces y términos relacionados............... 216
3.5.5. Tableros, Puertos, Buses, Slots.......................................... 224
3.6. Dispositivos informáticos periféricos (externos) .......................... 233
3.6.1. Memoria de computadora externa, unidades y términos relacionados ..... 233
3.6.2. CD y términos relacionados ................................ 251
3.6.3. Dispositivos de entrada de datos, manipuladores ........... 260
3.6.4. Dispositivos de salida.................................................. 271
3.6.5. Módems, codificadores, fuentes de alimentación................... 286
3.7. Tarjetas PC .................................................. ............... .. 289
3.8. Base de computadora microelectrónica ............................. 294
3.9. Dispositivos optoelectrónicos ............................. 299
IV. Software para sistemas automatizados .......... 303
4.1. Algoritmos, programas, programación.......................................... 303
4.1.1. Conceptos y términos generales 303
4.1.2. Lenguajes de programación.................................. 307
4.1.3. Términos relacionados con la programación ............ 319
4.2. Programas generales.............................. 327
4.2.1. Sistemas operativos.................................. 328
4.2.2. Herramientas generales de servicio de software 338
4.3. Software de aplicación para sistemas automatizados ....... 339
4.3.1. Conceptos y términos generales ............................. 339
4.3.2. Programas de aplicación.................................. 342
4.3.3. Virus informáticos y antivirus .......................... 346
4.4. Términos relacionados con el funcionamiento de las herramientas de software 350
4.4.1. Algunos conceptos y términos generales ........................ 350
4.4.2. Archivar, comprimir-restaurar registros de datos............... 352
4.4.3. Acceso, domicilio y términos relacionados.......................... 364
V. Multimedia, hipermedia, realidad virtual, visión artificial. 372
5.1. Sistemas multimedia y términos relacionados. .......... 372
5.2. Medios de proporcionar acompañamiento musical y del habla .......... 375
5.2.1. Conceptos y términos generales ............................. 375
5.2.2. Archivos de sonido, sus estándares y formatos ................................ 380
5.3. Gráficos de máquina (computadora) ....................... 389
5.3.1. Conceptos y términos generales ............................. 389
5.3.2. Archivos gráficos y sus formatos............................... 392
5.3.3. Tecnología de gráficos por computadora ........... 400
5.4. Video por Computador, Televisión Digital y Animación ................................ 408
5.4.1. Conceptos y términos generales ............................. 408
5.4.2. Tecnología de vídeo .................................. 412
5.4.3. Tecnología de Animación.................................. 416
5.4.4. Televisión digital 420
5.5. Realidad virtual, Mundos Paralelos. ...................... 424
5.6. Visión por Computador.................................................. 427
VI. Tecnologías de red. Medios de procesamiento y transmisión de información 430
6.1. Conceptos y términos generales ............................. 430
6.2. Redes de área local ................................................ 433
6.3. Redes informáticas distribuidas ................................ 441
6.3.1. Conceptos y términos generales ............................. 441
6.3.2. Intranet.................................. 450
6.3.3. ETERNET .............................. 455
6.4. Redes informáticas globales, Internet .......................... 471
6.4.1. Conceptos y términos generales ............................. 471
6.4.2. Tecnología web.................................................. 482
6.4.3. Tecnologías para la transmisión de datos a través de canales de Internet................ 489
6.4.4. Servicios y herramientas de servicio en Internet............................... 499
6.4.5. Servicios Integrados de Redes Digitales - RDSI ............................. 518
6.4.6. celular y telefonía computarizada ................ 520
6.4.7. Equipos de telecomunicaciones de los edificios ................................ 526
6.4.8. Desarrollo de medios técnicos y complejos basados ​​en el uso de tecnologías de telecomunicaciones 532
6.4.9. Sujetos de las relaciones jurídicas en Internet ............................. 533
6.5. Medios y tecnologías para la protección de las redes informáticas ........................... 536
6.6. Estándares básicos para redes de datos. ....................... 541
6.6.1. Normas ISO ............................................... . 541
6.6.2. Estándares IEEE ....................................... 543
6.6.3. Normas UIT-T .............................................. .554
6.6.4. Otros Estándares y Protocolos.......................................... 560
VIII. Argot informático y de redes ................................ 565
VIII. Iconos de correo electrónico y símbolos de emoticonos .......... 592
IX. Abreviaturas de palabras y expresiones utilizadas en Internet ...... 594
Referencias ............................................... 597
Índice alfabético en inglés .................................................. 644
Índice alfabético ruso ............................................................. ... 708

decirles a los amigos