Cómo funciona la codificación informática?

Cómo funciona la codificación

Entonces, ¿cómo funciona realmente la codificación? La respuesta corta es que escribir código le dice al ordenador lo que tiene que hacer, pero no es tan sencillo.

Aquí está la respuesta más larga. Un ordenador sólo puede entender dos tipos distintos de datos: encendido y apagado. De hecho, un ordenador no es más que un conjunto de interruptores de encendido y apagado (transistores). Todo lo que puede hacer un ordenador no es más que una combinación única de algunos transistores encendidos y otros apagados.

El código binario es la representación de estas combinaciones como 1s y 0s, donde cada dígito representa un transistor. El código binario se agrupa en bytes, grupos de 8 dígitos que representan 8 transistores. Por ejemplo, 11101001. Los ordenadores modernos contienen millones o incluso miles de millones de transistores, lo que significa un número inimaginablemente grande de combinaciones.

Pero aquí surge un problema. Para poder escribir un programa de ordenador tecleando miles de millones de 1s y 0s se necesitaría una capacidad cerebral sobrehumana, e incluso así probablemente te llevaría una o dos vidas escribirlo.

This is where programming languages come in…

Programming Languages

Here’s a simple example of some code:

  1. print 'Hello, world!' 

That line of code is written in the Python programming language. En pocas palabras, un lenguaje de programación (o codificación) es un conjunto de reglas sintácticas que definen cómo debe escribirse y formatearse el código.

Miles de lenguajes de programación diferentes hacen posible que podamos crear software informático, aplicaciones y sitios web. En lugar de escribir código binario, nos permiten escribir código que es (relativamente) fácil de escribir, leer y entender. Cada lenguaje viene con un programa especial que se encarga de traducir lo que escribimos a código binario.