Como ya hemos visto, un algoritmo requiere de datos para poder funcionar. Dependiendo del tipo de programa que necesitemos hacer, esos datos pueden ser de tipos muy diversos. En nuestro ejemplo del cálculo de la nómina de un empleado, por ejemplo, sabemos que los datos de entrada que recibiremos (horas_trabajadas, tarifa_por_hora y tasa_impuesto) son sólo números. El tipo de dato que recibiremos (y que entregaremos como resultado) es crucial para que nuestro programa funcione adecuadamente. En este caso, dado que necesitamos realizar algunas operaciones aritméticas con esos datos, es requisito esencial que sean números. Si en el programa hubiéramos requerido conocer también el nombre del empleado, estaríamos hablando de un tipo de dato enteramente distinto. Conocer los tipos de datos que tenemos disponibles es necesario para desarrollar nuestros algoritmos puesto que podemos decidir qué clase de operaciones podemos hacer con ellos.
En esta imagen están representados algunos* de los diferentes tipos de datos que podemos usar en nuestros algoritmos. Vamos a analizar a detalle cada uno de ellos.
Principales tipos de datos (clic para agrandar) |
Los tipos de datos simples son los tipos esenciales que admite cualquier computadora o lenguaje de programación. Entre estos podemos encontrar:
Tipos numéricos
Como su nombre lo indica, en estos tipos podemos almacenar números (duh!), los cuales a su vez pueden ser Enteros o Reales. Los enteros (si recuerdan bien sus clases de matemáticas de primaria) son números que no tienen componentes fraccionarios o decimales y pueden ser positivos o negativos. En nuestro algoritmo de ejemplo, el número de horas trabajadas probablemente sea un número entero dado que difícilmente se pagarán fracciones de hora. Por otro lado, los reales son los números que sí contienen alguna parte decimal y también pueden ser positivos o negativos. Volviendo al ejemplo, tanto la tarifa por hora como la tasa de impuesto son probablemente valores reales porque incluirán centavos o valores decimales respectivamente.
Tipos alfanuméricos
Estos están formados por todos los caracteres (letras, dígitos y símbolos) que reconoce una computadora. El tipo Caracter es el que está formado solamente por un caracter, ya sea letra, dígito o símbolo**. Por otro lado, el tipo Cadena de Caracteres está formado por más de un caracter, como puede ser el nombre de una persona, un domicilio, una dirección de correo electrónico, entre otros muchos ejemplos. Los tipos alfanuméricos suelen delimitarse usando comillas simples o dobles (por ejemplo: "a", "Mambrú se fue a la guerra", "(555) 334-56-78", "03/Mar/2015"). Cabe mencionar que es muy diferente expresar, por ejemplo, que una variable tiene el valor de "1255" a decir que vale 1255. En el primer caso, dado que el valor está entre comillas, asumimos que es de tipo alfanumérico, es decir, una computadora no lo reconocerá como número y por lo tanto no podremos realizar operaciones matemáticas con él, a menos que hagamos una conversión de tipos. Sin embargo, esto último no nos atañe de momento. Baste saber que la diferencia es importante cuando se trata de traducir nuestros algoritmos a un lenguaje de programación particular.
Tipos lógicos.
El tipo lógico, también llamado booleano (en honor a George Boole, uno de los fundadores de las Ciencias Computacionales) es el que sólo puede tomar uno de dos valores: verdadero (true) o falso (false). Este tipo de datos se usa para representar alternativas a determinadas condiciones (como SI/NO, ENCENDIDO/APAGADO, LLENO/VACIO, etc). Por ejemplo, al decidir si un número es par, la respuesta se dará en términos de verdadero o falso.
Hasta aquí llegamos con la lección de hoy. En la siguiente lección aprenderemos a reconocer dos elementos esenciales para nuestros programas: las constantes y las variables. ¡Hasta la próxima!
NOTAS
*Digo "algunos" porque hay lenguajes de programación que admiten más o menos tipos dependiendo de su construcción. Aquí nos ocupamos de los tipos de datos generalmente aceptados por todos los lenguajes de programación.
**El conjunto de todos los símbolos estandar aceptados por una computadora está representado por el llamado código ASCII, del cual puedes aprender mucho más en nuestra querida y adorada Wikipedia.
Enlace: Índice del curso
Enlace: Índice del curso
Saludos, muy buen material.
ResponderEliminarSaludos, muy buen material.
ResponderEliminar