I.

Introducción a la computación en la nube

Si oyes hablar de la nube, la computación en la nube o el almacenamiento en la nube, hay algo que debes saber: no tiene nada que ver con fenómenos meteorológicos.

Básicamente, cuando algo está en la nube, significa que se almacena en servidores a los que se accede a través de Internet, en lugar de tener esos servidores in situ (en casa o en la oficina). El alojamiento en la nube ofrece recursos informáticos a la carta (aplicaciones, software, bases de datos y mucho más), que se ejecutan en esos servidores, a menudo ubicados en centros de datos.

Para explicar mejor en qué consiste la nube, vamos a mencionar cinco características esenciales:

  • Autoservicio a la carta: los usuarios pueden acceder a los recursos de la nube (por ejemplo, potencia de procesamiento, almacenamiento y redes) cuando los necesitan, a través de una interfaz y sin necesidad de interactuar con ningún empleado de la empresa que proporciona esos servicios.

  • Amplio acceso por red: se puede acceder a esos recursos de computación en la nube a través de la red, mediante mecanismos y plataformas estándar como teléfonos móviles, tabletas u ordenadores.

  • Recursos comunes: es la clave para poder ofrecer servicios rentables a pequeña o gran escala. Los recursos informáticos se asignan y reasignan de manera dinámica en función de la demanda y sirven a multitud de consumidores.

  • Elasticidad rápida: los usuarios pueden acceder a más recursos cuando los necesitan y reducirlos cuando dejan de hacerles falta, porque los recursos se aprovisionan y liberan de manera elástica.

  • Servicios medidos: los usuarios solo pagan por lo que usan o reservan, nada más. El uso de los recursos se controla, se mide y se refleja en informes de forma transparente según su uso, como ocurre con los suministros del hogar.

La computación en la nube es tecnología como servicio: utilizas recursos remotos a la carta a través del Internet abierto, puedes ampliar y reducir los servicios según los necesites y pagas solo por lo que usas. Este revolucionario modelo ha cambiado la forma en que accedemos a los servicios informáticos y ha ayudado a las empresas a reaccionar a los cambios en el mercado con mayor agilidad.

La evolución de la computación en la nube

La computación en la nube ha sido posible gracias a la evolución de las tecnologías de almacenamiento. El nombre de computación en la nube se inspiró en el símbolo de la nube que se suele utilizar para representar Internet en los gráficos y diagramas de flujo.

Con la computación en la nube, la ubicación del proveedor de servicios, del hardware y del sistema operativo subyacente suelen ser irrelevantes para el usuario.

Este concepto empezó a utilizarse a principios de los 2000, pero la noción de informática como servicio existe desde los años cincuenta, cuando Unisys (fabricante del ordenador UNIVAC), International Business Machines Corporation (IBM) y otras empresas empezaron a producir ordenadores inmensos, y a un coste muy elevado, con capacidad para procesar grandes volúmenes para grandes empresas y laboratorios de investigación gubernamentales. Dado el alto coste de adquirir, usar y mantener estos mainframes, las organizaciones e instituciones no podían permitirse un mainframe para cada usuario y empezó a tomar forma el uso compartido de los recursos, o tiempo compartido.

Las empresas pasaron a alquilar cierto tiempo de uso de un mainframe. En 1959, el ordenador IBM 1401 se alquilaba por 8000 dólares al mes (las primeras máquinas de IBM casi siempre se alquilaban en lugar de venderse) y, en 1964, el ordenador IBM S/360 de mayor tamaño costaba varios millones de dólares.

Mediante el uso de «terminales tontas», que solo servían para acceder a los mainframes, varios usuarios podían acceder a la misma capa de almacenamiento de datos y a la potencia de la CPU desde cualquier terminal.

Máquinas virtuales

En los años setenta, IBM lanzó un sistema operativo que permitía crear varios sistemas virtuales, o máquinas virtuales (VM), en un mainframe. De esta manera, se mejoró el acceso compartido a un mismo mainframe u ordenador. Este sistema permitía ejecutar varios entornos informáticos independientes dentro de un mismo hardware físico.

Ejemplo

Para explicar lo que es una máquina virtual, vamos a basarnos en un ejemplo con el que tal vez te hayas encontrado: ejecutar software incompatible. Hace unos años, antes del auge de las aplicaciones, el software diseñado para Windows, como Microsoft Office, no se podía usar en un Mac. Si querías utilizar esas aplicaciones en un Mac, podías instalar Boot Camp de Apple para dedicar una parte de tu disco duro a la instalación de Windows y poder usar Office. Al hacerlo, tenías dos ordenadores en uno: uno con Windows y otro con macOS. Sin embargo, no se podían utilizar ambos sistemas a la vez, por lo que era necesario reiniciar el Mac para pasar de macOS a Windows y viceversa. También existen programas de software que permiten ejecutar ambos sistemas operativos en paralelo sin necesidad de reiniciar el ordenador.

Con las máquinas virtuales, es como si tuvieras varios ordenadores dentro de un mismo ordenador. En cada máquina virtual, cada usuario puede configurar el sistema operativo que necesita (por ejemplo, Microsoft Windows, macOS o Linux), que funcionará como si tuviera sus propios recursos (memoria, CPU, discos duros y redes), aunque se estén compartiendo. Esto se llama virtualización y ha propiciado numerosos avances de gran importancia en el campo de las comunicaciones y la informática. También es la principal tecnología que permite la computación en la nube.

El aspecto más importante es que lo que ocurre en una máquina virtual no afecta a las demás. Por ejemplo, si una máquina virtual sufre algún daño (se infecta con algún virus o malware), esto no tiene ninguna repercusión para el resto de las máquinas.

Virtualización de servidores

Hasta hace muy poco, el hardware físico era bastante caro. A medida que Internet se hizo más accesible y bajaron los costes del hardware, hubo más usuarios que podían permitirse comprar sus propios servidores. Pero, para que fuera más fácil asumir los costes del hardware, también se virtualizaron los servidores, utilizando los mismos tipos de funciones que ofrecía el sistema operativo de las máquinas virtuales, que hemos explicado antes.

Sin embargo, surgió otro problema: tener un único servidor podía ser útil para las funciones más básicas, pero no era suficiente para proporcionar los recursos que requerían las tareas más exigentes. Esta situación hizo que, en lugar de dividir los servidores caros para compartirlos, se combinaran varios servidores más asequibles. Así nació la virtualización en la nube.

Note

Un software llamado hipervisor, instalado en varios servidores físicos, permite visualizar y asignar los recursos como si estuvieran en un único servidor físico. Los tecnólogos utilizaban términos como computación bajo demanda y computación en la nube para referirse a esta visualización. En estos entornos de computación en la nube, era fácil hacer crecer «la nube». Los técnicos podían añadir un nuevo servidor físico a la sala de ordenadores y configurarlo para que formara parte del sistema.

A medida que se desarrollaban las tecnologías y los hipervisores, las empresas querían poner las ventajas de la nube a disposición de los usuarios que no tenían recursos propios. Para los usuarios es muy sencillo reservar y cancelar servicios de la nube. Y para las empresas que prestan servicios en la nube también es fácil cumplir con sus solicitudes, ya que es un proceso prácticamente instantáneo.

El modelo de pago por uso permite a instituciones, empresas y desarrolladores pagar por los recursos informáticos «que utilizan y a medida que los utilizan, como si fueran unidades de consumo eléctrico». Esta es la clave de la computación en la nube actual.

Next section
II. ¿Cómo se crea la nube y cómo funciona?