Archivo del Autor: jserrano2015

Medios de Pago Electrónicos – TIC’s en la empresa zamorana

Los medios de pago electrónicos son los medios de pago específicamente diseñados para dar soporte a las transacciones comerciales que tienen lugar dentro de una plataforma de comercio electrónico.

En la actualidad es posible utilizar en Internet medios de pago “tradicionales”, como el pago contra reembolso y las transferencias bancarias. No obstante, el medio más extendido es el pago mediante tarjeta de crédito, soportado por los protocolos SSL y SET.

El protocolo SSL (Secure Sockets Layer) fue desarrollado por la empresa Netscape en 1994 para garantizar la seguridad en el intercambio de datos entre un navegador y un servidor Web, y en la actualidad es el más utilizado para realizar transacciones comerciales en Internet. La actual limitación de este protocolo viene dada por no garantizar la autenticación del cliente, ya que no se exige que éste disponga de una clave pública avalada por un certificado digital, por lo que con este protocolo no se puede cumplir la función de “no repudiación”, dejando de este modo las puertas abiertas a la realización de transacciones fraudulentas en Internet.

Por su parte, el protocolo SET (Secure Electronic Transaction) fue desarrollado en 1996 por VISA y Mastercard, con el apoyo de importantes empresas como IBM, Microsoft, Netscape, RSA y Verisign, para dar soporte a las transacciones electrónicas realizadas en Internet con tarjeta de crédito.

El protocolo SET ofrece una solución plenamente satisfactoria para la realización de transacciones seguras en Internet, ya que:

  • Permite autenticar a todas las partes que intervienen (no sólo al vendedor, como en el caso de SSL).
  • El vendedor no tiene acceso a la información de la tarjeta de crédito del cliente.
  • Las entidades financieras no tiene acceso a los datos de la compra (simplemente autorizan la transacción a partir de los datos de la tarjeta de crédito).

En definitiva, SET es un protocolo robusto y que ofrece un nivel de seguridad suficiente, pero a costa de hacerlo muy pesado y complejo de utilizar. La implantación de SET está siendo bastante lenta, y por este motivo a día de hoy la mayoría de los comerciantes y entidades financieras interesadas en vender a través de Internet han optado por soluciones basadas en SSL (que ofrece menos garantías, especialmente para el vendedor).

Por otra parte, desde hace algunos años se han propuesto medios de pago específicamente creados para operar en Internet. En la práctica ha sido difícil combinar todas las características deseables (seguridad en las transacciones, fiabilidad, escalabilidad, anonimato, facilidad de uso, facilidad de integración con los sistemas de gestión empresarial, interoperabilidad con otros sistemas de pago, divisibilidad de las unidades monetarias procesadas por el sistema, etc.) en un único medio de pago. Cualquier sistema propuesto necesita contar con el apoyo de entidades financieras, organismos gubernamentales y empresas especializadas en medios de pago, que suelen imponer sus propias reglas de juego.

Seguidamente se describen algunos de los medios de pago propuestos más destacados (algunos de los cuales ya han sido desestimados en la actualidad):

  • Cheques electrónicos (eCheck, NetCheque):

eCheck es un sistema de cheque electrónico desarrollado por el FSTC (Financial Service Technology Consortium), un consorcio de más de 90 miembros, principalmente bancos, que colaboran de forma no competitiva en el desarrollo de proyectos técnicos. Este sistema emplea una tarjeta inteligente para implementar un “talonario de cheques electrónicos” seguro (órdenes de pago firmadas digitalmente. Otro ejemplo es el sistema NetCheque, desarrollado por la Universidad del Sur de California.

  • Cybercash:

Cybercash es un sistema desarrollado en 1994 para gestionar el pago mediante tarjetas de crédito. Se trata de uno de los pioneros, y ha servido como base para el posterior desarrollo del protocolo SET. Cybercash constituye una pasarela de pago entre los comerciantes y las redes de las entidades financieras. En este sistema los datos con la tarjeta de crédito del comprador se envían encriptados para que sólo puedan ser leídos por Cybercash. De esta forma, el comerciante no tiene acceso a los datos de la tarjeta de crédito del cliente.

  • Cybercoin:

Cybercash dispone también de un servicio específico, denominado Cybercoin, adecuado para la realización de pequeños pagos (“micropagos”) en Internet, como el pago por acceso a bases de datos, compra de páginas de información, lectura de un periódico, etc. Hay que tener en cuenta que para estos pagos de un importe reducido (menos 3€) no resulta rentable utilizar un medio basado en una tarjeta de crédito, por el elevado importe de la comisión aplicada, que puede ser superior al propio valor de la transacción. Cybercoin es un monedero electrónico que se puede recargar a partir de una determinada tarjeta de crédito. Este monedero está ubicado en el servidor central de Cybercoin, desde donde se gestionan los micropagos de cada uno de sus clientes, realizando las correspondientes anotaciones en las cuentas de sus respectivos monederos. De este modo, para realizar un pago el cliente proporciona al comerciante un número de cuenta y una autorización para que se le cargue el importe correspondiente. El comerciante remite estos datos al servidor central de Cybercoin, y allí se deduce esa cantidad de la cuenta del cliente.

  • ECash:

El sistema Ecash es un monedero digital desarrollado por la empresa DigiCash, que permite almacenar una cierta cantidad de dinero en el disco duro del ordenador, facilitando la realización de compras anónimas y seguras en Internet.

  • Millicent:

Millicent es un sistema desarrollado por la empresa Digital en 1995 (hoy integrada en Compaq) para realizar micropagos en transacciones dentro de Internet. Este sistema usa una especie de cupón electrónico, denominado “scnp”, que representa un valor prepagado y que es emitido por intermediarios, que simplifican la interacción entre los compradores y los vendedores.

  • El teléfono móvil como instrumento de pago:

En los últimos años han cobrado especial importancia las plataformas de gestión de pagos a través del teléfono móvil, mediante una cuenta asociada a un número de abonado. Con estos sistemas se pretende que el teléfono móvil funcione como un monedero virtual para el pago de productos y servicios, facilitando las compras en Internet, en máquinas expendedoras, en taxis, en restaurantes, en gasolineras, etc. A finales del año 2000 se presentaron varias de estas plataformas en nuestro país: Caixamóvil, desarrollado por La Caixa; Paybox, del Deutsche Bank; Movilpago, de Telefónica Móviles y el BBVA; Pagomovil, de Airtel-Vodafone, el BSCH y 4B. A finales de mayo de 2001, las plataformas Movilpago y Pagomovil acordaron su integración en una sola, denominada Mobipay.

Anuncios

Tecnología Bluetooth – TIC’s en la empresa zamorana

Norma internacional abierta para una tecnología punta que posibilita la conexión inalámbrica de corto alcance de voz y datos entre computadores y portátiles, agendas digitales, teléfonos móviles, impresoras, escáneres, cámaras digitales e incluso dispositivos de casa, a través de una banda disponible a nivel global (2,4 GHz) y mundialmente compatible. Se trata de la posibilidad de comunicación entre equipos digitales sin necesidad de utilizar cables.

El avance de esta tecnología queda demostrado por el hecho de que cada semana se comercializan más de dos millones de dispositivos equipados con Bluetooth por todo el mundo. Tanto es así, que se ha convertido en una herramienta predominante con el potencial de proporcionar enormes rendimientos empresariales para compañías de todos los sectores.

A menudo, Bluetooth está considerado utópicamente y en términos de los gestores del conocimiento, como una herramienta para conectar entre sí teléfonos móviles, ordenadores de bolsillo y todo tipo de equipos portátiles para que la información contenida en las bases de datos corporativas deje de estar confinada en el dispositivo (servidor empresarial) en el cual reside. No obstante, esta tecnología se muestra poco efectiva ante tales retos, aunque sí resulta altamente efectiva y práctica a la hora de acceder y compartir pequeños volúmenes de información en cualquier lugar, siempre que tenga cerca cualquier otro dispositivo equipado con Bluetooth.

Aun así, la tecnología Bluetooth no se reduce simplemente a las conexiones inalámbricas con dispositivos de escritorio. Su interés radica en su simplicidad, permitiendo que un usuario se pueda mover cómodamente por cualquier recinto que tenga una adecuada cobertura inalámbrica, por ejemplo, sincronizando información de forma inalámbrica con su dispositivo portátil e imprimiendo informes directamente en una impresora equipada con este estándar de conexión. Del mismo modo, por medio de Bluetooth, los asesores pueden ofrecer a los clientes una información detallada al momento e imprimir un contrato en un dispositivo que se encuentra en la misma sala.

La tecnología Bluetooth también está desempeñando un papel cada vez más importante en el sector del automóvil. Los modelos de la gama más alta de Acura, BMW, DaimlerChrysIer, Saab, o Toyota, entre otros, han incorporado tecnología Bluetooth en sus unidades de navegación y de audio. Además, los equipos para automóviles que permiten hablar por teléfono móvil con el sistema de manos libres mientras se conduce se están haciendo cada vez más populares. En esta misma línea de desarrollo, los sistemas de telefonía más modernos equipados con Bluetooth disponen de reconocimiento de voz que se reproduce a través del sistema de audio del vehículo. Más recientemente, los sistemas de navegación GPS también están soportando dicha tecnología inalámbrica como complemento adicional a la conducción.

Otro de los ámbitos de explotación se sitúa en la sanidad. A este respecto, cada día crece la utilización de dispositivos PDA equipados con Bluetooth para anotar diagnósticos y prescripciones, y asegurarse de que la información del paciente queda registrada correctamente. A grandes rasgos, su utilidad consistiría en posibilitar que los pacientes puedan enviar la información al hospital a través de dispositivos provistos de Bluetooth y conexión a Internet, de tal modo que los datos y registros se puedan actualizar inmediatamente y alertar al personal médico si los resultados están fuera de determinados parámetros.

Éstas y otras muchas más aplicaciones son posibles gracias a la técnica de encriptación de 128 bits que protege la transmisión de datos para que no puedan ser interferidos de forma ilícita. Asimismo, el mecanismo de frecuencia adaptable de Bluetooth consigue que las transmisiones, en la saturada banda de frecuencia de 2,4 GHz, puedan eludir los canales ocupados por otros dispositivos inalámbricos o por otras emisiones electromagnéticas, lo cual hace que esta tecnología sea razonablemente fiable.

Bluetooth es actualmente un estándar global completamente consolidado y probado, cuyas ventajas pueden ser explotadas por empresas de todo tipo, ya que permite procesos más sencillos y rápidos que evitan los esfuerzos dobles y la pérdida de tiempo. En los próximos cinco años, el papel de la tecnología Bluetooth parece destinado a extenderse a través de innovadoras empresas de todo el mundo.

Aplicación en los Sectores Industriales:

  • Automoción, Aeronáutico, Naval, otros transportes
  • Bienes de equipo mecánico / eléctrico / Electrodomésticos
  • Ordenadores, Equipos de oficina / hogar
  • Telecomunicaciones y Equipos electrónicos
  • Otros segmentos industriales

Aplicación en los Sectores de Servicios:

  • Financieros
  • Contenidos / ocio
  • Administración y servicios públicos
  • Servicios privados a empresas

Redes Inalámbricas – TIC’s en la empresa zamorana

Una red Inalámbrica (Wireless LAN) es un tipo especial de red de área local en la que los equipos se pueden conectar a través de ondas electromagnéticas o de puertos que utilizan infrarrojos, evitando de este modo la necesidad de cablear los edificios.

Las redes inalámbricas más extendidas emplean tarjetas de red conectadas a pequeñas antenas que realizan las funciones de un transmisor/receptor de radiofrecuencia y que se conectan a un “punto de acceso a la red”, dispositivo consistente en un hub o un switch que cuenta con un equipo transmisor/receptor de radiofrecuencia.

Debido a la notable reducción del coste de los equipos necesarios, a la adopción de una serie de estándares que facilitan la interoperabilidad (normas Wi-Fi) y a la mayor oferta de productos disponibles en el mercado, este tipo de redes, también conocidas como Wireless LAN (WLAN), están experimentando un notable despegue en los últimos meses y numerosos expertos coinciden en destacar su fuerte expansión a corto y medio plazo.

Las redes inalámbricas presentan dos importantes ventajas: la movilidad de los equipos dentro de la zona de cobertura, así como la facilidad y rapidez en el despliegue y puesta en marcha de la red, ya que no se requiere el tendido de cables por el interior del edificio.

No obstante, como inconvenientes cabe destacar su menor velocidad de transmisión frente a las redes basadas en cable, así como su mayor vulnerabilidad frente a las interferencias y fuentes de ruido, que pueden degradar notablemente el funcionamiento de la red.

El número máximo de usuarios que pueden utilizar una de estas redes es de unas pocas docenas, si bien la capacidad de la red se degrada de forma notable a medida que se incrementa el número de usuarios conectados simultáneamente. No obstante, ampliando el número de puntos de acceso inalámbricos, se puede dar cobertura a un mayor número de usuarios.

Por otra parte, debemos destacar el fenómeno de las conocidas como “comunidades WLAN”, que están surgiendo en multitud de ciudades de todo el mundo para ofrecer cobertura de acceso a dispositivos portátiles en cafeterías, hoteles, aeropuertos, estaciones de tren, centros de convenciones, etc.

Por lo tanto, en una red inalámbrica se pueden emplear varios puntos de acceso (equipos concentradores). Cada estación depende en todo momento de un único punto de acceso con el que se comunica. Las estaciones se encargan de monitorizar permanentemente la calidad de su transmisión, de modo que, si esta calidad se degrada, la estación en cuestión comenzará a buscar activamente un nuevo punto de acceso al que conectarse, mediante la función de roaming (similar a la utilizada en los sistemas de telefonía móvil para cambiar de una estación base a otra).

Las redes inalámbricas de la tecnología Wireless Fidelity (Wi-Fi) se basan en un estándar del IEEE de 1997, revisado en 1999, conocido como estándar 802.11a Dentro del estándar 802.1 1 se han desarrollado dos alternativas, conocidas respectivamente como IEEE 802.11a e IEEE 802.1 Ib.

Se han propuesto otras tecnologías para desarrollar el mercado de redes inalámbricas, dirigidas tanto al ámbito doméstico como al empresarial: Bluetooth, Home RF, HyperLAN, etc. La existencia de tantas soluciones distintas e incompatibles entre sí han contribuido a aumentar la confusión en el mercado.

No obstante, solamente la tecnología Bluetooth ha conseguido una importante aceptación y el soporte por parte de un grupo destacado de empresas.

El estándar Bluetooth fue aprobado en la primavera de 1 998 por Ericsson, IBM, Intel, Nokia y Toshiba, con el objetivo de constituir una solución para comunicaciones inalámbricas con requisitos de espacio reducido, bajo coste y corto alcance entre ordenadores portátiles, periféricos (impresoras, escáneres, etc.), agendas electrónicas (PDAs), teléfonos móviles, cámaras digitales y otros aparatos electrónicos, incluyendo distintos tipos de electrodomésticos (frigoríficos, hornos microondas, lavadoras…).

Interconexión de Sistemas – TIC’s en la empresa zamorana

La interconexión de sistemas hace referencia a los dispositivos, técnicas y protocolos utilizados para establecer la comunicación y facilitar el intercambio de información entre equipos, redes y sistemas informáticos.

Para construir una red de ordenadores se emplean una serie de equipos hardware y aplicaciones software, cuya función es ofrecer los servicios necesarios para la transmisión de datos entre los ordenadores y terminales que se conectan a la red.

En primer lugar, es necesario instalar en cada ordenador o terminal una tarjeta de red (NIC, Network Interface Card), encargada de la transmisión y recepción de datos a través del medio de transmisión.

Asimismo, se requiere la instalación del cableado utilizado para construir el medio de transmisión compartido por todos los ordenadores y terminales: par trenzado UTP, cable coaxial o fibra óptica. El cableado no será necesario en el caso de las redes inalámbricas, basadas en equipos transmisores/receptores de radiofrecuencia.

Por otra parte, los dispositivos de interconexión facilitan la interconexión de redes LAN y redes WAN de distintas características:

  • Los Repetidores:

Son dispositivos que regeneran la señal y la transmiten a un nuevo segmento de una red de área local (LAN), sin interpretar la información ni tomar ninguna decisión sobre su origen y destino. En los dos segmentos se deben emplear las mismas técnicas de control de acceso al medio.

  • Los Puentes (Bridges):

Se encargan de almacenar y reexpedir tramas de datos entre redes tipo LAN, facilitando la interconexión de redes LAN que utilicen distintas técnicas de control de acceso al medio. En este caso, se encargan de regenerar la señal para transmitirla a la otra red local sólo cuando sea necesario, es decir, cuando los datos vayan destinados a un equipo que se encuentra en esa otra reo, realizando una adaptación a la técnica de control de acceso al medio empleada en esta segunda red.

  • Los Concentradores (Hubs y switchs):

Son dispositivos empleados en el cableado estructurado, cuya finalidad es facilitar el despliegue de una red en topología en estrella, en la que todos los cables utilizados se conectan a los puertos (bocas de conexión) de uno de estos dispositivos.

Se distinguen dos tipos de concentradores:

  1. Concentradores pasivos, también denominados “hubs”, que simplemente retransmiten la señal que reciben por uno de sus puertos a todos los demás puertos.
  2. Concentradores inteligentes, también denominados “switchs” (conmutadores), que utilizan una matriz interna de conmutación para retransmitir los datos que reciben por uno de sus puertos directamente por el puerto en el que se encuentra el equipo al que van dirigidos, sin utilizar el resto de los puertos.

Es decir, el concentrador “aprende” a qué puerto se encuentra conectado cada equipo, por lo que sólo retransmite los datos por el puerto que corresponda en cada caso, incrementando la capacidad de transmisión de la red.

  • Los Routers:

Facilitan la interconexión de distintas redes de ordenadores, ocupándose del encaminamiento de los paquetes de datos, a partir de la interpretación de las direcciones origen y destino. Para ello utilizan tablas de enrutamiento con información sobre las rutas disponibles para alcanzar otras redes, buscando la trayectoria más corta posible (minimizando el número de saltos entre nodos). Por otra parte, también se encargan del control de la congestión, midiendo la cantidad de tráfico que deben cursar en cada instante.

  • Las Pasarelas (Gateways):

Son dispositivos capaces de realizar una conversión de protocolos entre dos redes totalmente distintas. Así por ejemplo, pueden realizar una conexión entre una red IPX/SPX de Novell con una red basada en el protocolo de Internet TCP/IP.

Para garantizar la seguridad en la conexión se emplean “firewalls” (cortafuegos) y “proxies”, dispositivos hardware o aplicaciones software que se instalan en un ordenador conectado a la red de la organización.

Básicamente un firewall realiza un filtrado de paquetes de datos a partir de unas reglas definidas por el administrador de la red, en función de las direcciones IP fuente o destino (es decir, de qué ordenador provienen y a qué ordenador van dirigidos) y del servicio al que van dirigidos (especificado mediante un número de puerto de comunicaciones). Asimismo, permite generar un registro (“log”) de la actividad en la red.

Para conseguir controlar los accesos a Internet desde una red local, se suele utilizar un proxy, que realiza el papel de intermediario entre los equipos de la red local e Internet. De este modo, todas las conexiones pasan por un único equipo, que se encarga de su supervisión y control, proporcionando además mayor seguridad a la red de la empresa frente a intentos de acceso desde el exterior.

El administrador puede permitir o denegar el acceso a Internet y a los servicios de la empresa de manera selectiva. Se consigue de este modo que todo el tráfico de la organización pase por esta máquina, obligando a los usuarios a cumplir las restricciones que se hayan impuesto.

Por último, para implementar los distintos servicios ofrecidos por la red, se necesitan instalar y configurar adecuadamente una serie de servidores, ordenadores de una cierta capacidad de proceso y de almacenamiento que cuentan con un sistema operativo de red (que soporta los protocolos de comunicaciones utilizados en la red) y en los que se instalan aplicaciones y herramientas específicas para gestionar cada uno de los servicios (acceso a páginas Web, transferencia de ficheros, correo electrónico, ejecución remota de aplicaciones, etc.).

Redes y Servicios IP – TIC’s en la empresa zamorana

El IP se ha convertido en uno de los medios habituales de comunicación de datos en el sector empresarial dada la incorporación masiva de transacciones económicas (banco en casa, comercio electrónico, correo electrónico, EDI, etc.] con procedimientos seguros y certificados.

Las Redes IP son aquellas redes telemáticas que utilizan internamente los protocolos desarrollados en el ámbito de Internet y que, de forma genérica, se conocen como familia de protocolos TCP/IP. Con el término de Servicios IP se engloba a una nueva generación de servicios que aúnan las prestaciones que ofrecen las tecnologías desarrolladas en Internet con la seguridad propia de las redes tradicionales de transmisión de datos.

Internet se caracteriza por ser una red un tanto “anárquica”, carente de una estructura y de una autoridad formal. De hecho, está constituida por miles de redes independientes y autónomas en su gestión, que se han puesto de acuerdo en utilizar un “lenguaje común” (el protocolo TCP/IP para poder compartir información).

Sus orígenes se remontan a finales de los años sesenta, cuando en plena Guerra Fría, con el apoyo del Departamento de Defensa de EEUU, se puso en marcha una red experimental que comunicaba los ordenadores de varias universidades y centros de investigación. Con este proyecto se pretendía crear una infraestructura de telecomunicaciones más fiable y robusta que las existentes en ese momento, capaz de seguir en funcionamiento ante situaciones adversas, como la planteada por la caída de varios de sus nodos en el caso de un hipotético ataque nuclear. Nació así la red ARPANET en 1969, precursora de la actual Internet.

El funcionamiento de Internet se basa en la tecnología de conmutación de paquetes de datos, que fue desarrollada para dotar de una mayor robustez al sistema. En una Red de Conmutación de Paquetes, la información se fragmenta en pequeños paquetes del mismo tamaño e importancia denominados “datagramas”. Cada paquete contiene la dirección del ordenador al que va dirigido, y sigue la ruta óptima para llegar a su destino en función de la situación en la que se encuentre la red en esos momentos.

De este modo, cada paquete “encuentra su propio camino” de manera independiente de los demás, por lo que éstos pueden llegar desordenados a su destino. El receptor se encarga del reagrupamiento correcto de los paquetes para recuperar la información original.

Las Redes de Conmutación de Paquetes se adaptan perfectamente a las características del tráfico generado por la transmisión de datos entre ordenadores (tráfico a ráfagas). No se establecen circuitos dedicados para cada transmisión (en contraposición con el funcionamiento de una red de conmutación de circuitos típica como la del servicio telefónico), sino que los circuitos disponibles son compartidos por varias comunicaciones, posibilitando un mejor aprovechamiento de los recursos de la Red.

Sin embargo, esta característica de Internet presenta ciertos inconvenientes, ya que impide garantizar una calidad de servicio y una respuesta uniforme de la red. Por este motivo, no es adecuada para aplicaciones en tiempo real, como la transmisión de señales de audio y vídeo, que requieren un flujo de datos constante.

El principal problema que se ha tenido que afrontar durante el desarrollo de Internet ha sido el conseguir la interconexión de distintos tipos de redes y sistemas informáticos, totalmente incompatibles entre sí. Para ello se han definido un conjunto de protocolos de comunicaciones que permiten alcanzar la interoperabilidad entre los distintos sistemas, constituyendo una especie de “lenguaje común” a todos los equipos conectados a la Red.

El protocolo TCP/IP es el que se encarga de garantizar la comunicación fiable entre equipos, y para cada uno de los servicios proporcionados por Internet se ha desarrollado un protocolo específico: http para el World Wide Web, https para el World Wide Web seguro, smtp para el correo electrónico, nntp para el acceso a grupos de noticias (news), etc.

La descripción de cada uno de estos protocolos y de otros servicios de Internet se recoge en una serie de documentos denominados RFCs (Request For Comments), elaborados por los equipos de trabajo encargados de su desarrollo dentro de las organizaciones que rigen Internet.

TCP/IP define, por tanto, un conjunto de normas que rigen la transmisión de datos entre los ordenadores conectados a Internet. Se divide en dos protocolos:

  • El Protocolo TCP (Transport Control Protocol, RFC 791)

Se encarga de llevar a cabo la fragmentación de la información en paquetes y de garantizar la transmisión fiable de datos entre el transmisor y el receptor (reagrupamiento de los paquetes, detección de errores y gestión de retransmisiones, control del flujo de datos, etc.).

  • El Protocolo IP (Internet Protocol, RFC 793)

Cuyo cometido principal es el encaminamiento de los paquetes de datos por la Red, seleccionando la ruta que debe seguir cada uno para alcanzar su destino.

Cada equipo conectado a Internet tiene asignado un número que permite su identificación, y que se conoce como dirección IP. En la actualidad una dirección IP está constituida por una secuencia de 4 bytes (32 bits). No obstante, está prevista su ampliación a 16 bytes con la nueva versión del protocolo IP (denominada IPv6J, para incrementar de forma drástica el número total de direcciones disponibles, solucionando así el problema de escasez de direcciones planteado por el espectacular crecimiento de la Red en los últimos años, muy por encima de las previsiones más optimistas.

Para los usuarios de la Red resulta bastante engorroso tener que trabajar directamente con las direcciones IP. Por este motivo se ha desarrollado el servicio de nombres de dominio, que permite identificar a cada ordenador mediante un nombre que internamente es traducido por la dirección IP con la que se corresponde. De esta tarea se encargan los servidores DNS (Domain Name System, RFC 1591), que constituyen un sistema de bases de datos distribuidas que traduce los nombres de dominio en direcciones numéricas IP.

Se sigue un esquema de nombramiento jerárquico que permite identificar a las organizaciones que están presentes en la Red, especificando en primer lugar el tipo de organización de que se trata (empresa, universidad, organización sin ánimo de lucro) o su país de procedencia, para, a continuación, indicar el nombre de la organización, y continuar, si es preciso, con el nombre de un departamento o área en cuestión dentro de la organización.

Entre los principales servicios que ofrece Internet a sus usuarios, podemos distinguir servicios de publicación y búsqueda de información, de los que el más destacado es el World Wide Web, y servicios de telecomunicaciones, como el correo electrónico, los grupos de noticias, la transferencia de ficheros (FTP), la conexión remota (Telnet), la telefonía y videoconferencia IP, el fax vía Internet, la multidifusión de radio y televisión, la mensajería instantánea, los servicios de chat, etc.

 

Arquitectura Cliente/Servidor – TIC’s en la empresa zamorana

La arquitectura Cliente/Servidor describe un modelo informático distribuido, basado en la utilización de una serie de equipos de altas prestaciones que ofrecen una serie de servicios (“Servidores”), y otros equipos que acceden a dichos servicios (“Clientes”).

El modelo informático tradicional se ha basado en un sistema centralizado, en el que un ordenador central (“mainframe”) se encarga de ejecutar todas las aplicaciones y trabajos de los usuarios del sistema. Los usuarios se conectan al ordenador central mediante terminales sin ninguna capacidad de procesamiento (son simples pantallas y teclados, por lo que en la jerga informática se conocen como “terminales tontos”).

Sin embargo, la aparición de los ordenadores personales, tras el lanzamiento al mercado del IBM PC XT en 1981, supuso un cambio radical en el modelo informático: estos equipos tenían capacidad de procesamiento y almacenamiento a precios asequibles, abriendo nuevas posibilidades para el desarrollo de aplicaciones de productividad personal (procesadores de texto, hojas de cálculo, etc.. Gracias al PC, en estos últimos 30 años la industria informática ha experimentado un crecimiento espectacular, con un notable incremento de las prestaciones de los equipos instalados en los puestos de trabajo y en los departamentos.

La necesidad de compartir información y recursos entre los puestos de trabajo propició el desarrollo de las redes locales (LAN), con la aparición de estándares como Token Ring y, sobre todo, Ethernet. En esta nueva situación, caracterizada por la descentralización de la capacidad de procesamiento y almacenamiento, ha surgido un nuevo modelo informático basado en un esquema distribuido, en el que ciertos ordenadores dentro de la red con mayores prestaciones se especializan en ofrecer una serie de servicios (almacenamiento de ficheros, gestión de impresoras compartidas en red, ejecución de ciertas aplicaciones, etc.), y que por este motivo se denominan “Servidores”. A estos equipos “Servidores” se conectan otros que actúan como “Clientes”, y que, a diferencia de los “terminales tontos”, sí tienen capacidad para ejecutar aplicaciones y procesar los datos que reciben.

También en el funcionamiento de Internet se sigue el modelo Cliente/Servidor: en la máquina del usuario que se conecta a Internet se ejecuta un programa que actúa de “cliente” (por ejemplo, el lector de correo o el navegador), solicitando una serie de operaciones y servicios a ordenadores que se encuentran en la Red, y que actúan de “servidores”. Las aplicaciones de Internet se basan en la interacción entre el programa “cliente” y el “servidor”.

En estos últimos años se ha desarrollado un nuevo modelo denominado “peer-to-peer” (de igual a igual), que permite intercambiar ficheros y ofrecer cierto tipo de servicios directamente entre equipos clientes, sin necesidad de recurrir a ningún servidor. Alguno de estos servicios “peer-to-peer”, como el denominado “Gnutella”, se han popularizado en Internet desde el año 2000 para facilitar el intercambio de canciones digitalizadas en formato MP3 y otro tipo de ficheros directamente entre los usuarios finales.

Estándares y Protocolos – TIC’s en la empresa zamorana

Los estándares facilitan el desarrollo de sistemas y servicios compatibles entre los distintos fabricantes del mercado. Existen distintos organismos nacionales e internacionales encargados de la aprobación de los distintos estándares que afectan a la industria de la informática y las telecomunicaciones.

Los protocolos definen un conjunto de reglas para el intercambio fiable de información. Son ellos, por ejemplo, los que definen la manera de compartir información a través de Internet o incluso la manera de chatear. Si se generaliza el uso de dichas normas y se cumplen una serie de requisitos, se convierten en estándares.

El principal problema que ha tenido que afrontar la industria informática ha sido el conseguir la interconexión de distintos tipos de redes y sistemas informáticos, totalmente incompatibles entre sí. Para ello se han definido una serie de estándares que permiten alcanzar la interoperabilidad entre los distintos sistemas.

En la práctica se distingue entre estándares “de facto” y estándares “de iure”. Los estándares “de facto” surgen por la aceptación por parte del mercado de las soluciones desarrolladas por un determinado fabricante, mientras que los estándares “de iure” son no propietarios, en el sentido de que no pertenecen a una determinada empresa, sino que dependen de las decisiones de organismos nacionales o internacionales.

Algunos de los principales organismos responsables de la estandarización en el ámbito de la informática y las telecomunicaciones son el IEEE (lnstitute of Electrical and Electronic Engineers), la ITU (International Telecommunications Union), ANSÍ (American National Standards Institute), ETSI (European Telecommunications Standards Institute), CCITT (Committee for Telegraphy and Telephony) o la ISO (International Standards Organization).

Para poder establecer la comunicación entre los ordenadores que forman parte de una red, se utilizan “protocolos de comunicaciones”, que constituyen una serie de normas y procedimientos definidos para poder resolver los problemas asociados al intercambio de información:

  • Transmisión fiable de los datos:

-Que los datos lleguen libres de errores y sin pérdidas a su destino.

-Encaminamiento a través de la red:

-Que los datos se entreguen al ordenador destinatario atravesando otras máquinas conectadas a la red.

-Gestión del diálogo entre máquinas:

-Establecer un orden en la comunicación entre las aplicaciones que se ejecutan en los ordenadores de la red.

El organismo internacional ISO ha definido un modelo en “capas” o niveles, el modelo de Interconexión de Sistemas /Abiertos (OSI), que persigue construir una torre de protocolos estándar que facilite la interconexión de equipos y redes de distintos fabricantes. Cada capa ofrece una serie de servicios a la inmediatamente superior, y se apoya a su vez en los servicios proporcionados por las capas inferiores. Seguidamente se presenta una breve descripción de cada una de estas capas:

  • Nivel Físico:

Se ocupa de las cuestiones relacionadas con la conexión eléctrica, el cableado, la definición de los tipos de señales y esquemas de codificación empleados, etc.

  • Nivel de Enlace:

Su misión es garantizar la transmisión fiable (libre de errores) entre máquinas que se encuentran directamente conectadas. Asimismo, se ocupa del control de acceso al medio (MAC, Media Access Control) en medios compartidos, como en el caso de un bus de datos de una red local.

  • Nivel de Red:

Se encarga del encaminamiento a través de la red, es decir, de conseguir que los datos se entreguen al equipo destinatario de los mismos, atravesando si es preciso varios ordenadores y equipos de interconexión. También asume la gestión de los equipos de interconexión de redes (“routers”), y el control del tráfico para evitar situaciones de sobrecarga en las redes (congestión).

  • Nivel de Transporte:

Es el responsable de garantizar que la transmisión extremo a extremo a través de la red es fiable, sin errores en las tramas de datos ni pérdidas de tramas. Asimismo, se responsabiliza del control del flujo, para evitar que equipos rápidos puedan llegar a saturar con sus transmisiones a otros más lentos.

  • Nivel de Sesión:

Se encarga de la gestión del diálogo entre las máquinas que intervienen en una comunicación a través de la red.

  • Nivel de Presentación:

Tiene como función llevar a cabo la codificación de los datos.

  • Nivel de Aplicación:

Es específico de la aplicación que proporciona el servicio final a los usuarios, y define cómo tienen que actuar los ordenadores que intervienen en la comunicación para poder facilitar dicho servicio.

En el ámbito de Internet varios organismos se encargan de definir los estándares para dar soporte a los protocolos y servicios de la Red. Entre ellos destacan el Internet Engineering Task Forcé (IETF) y el World Wide Web Consortium (W3C).

Los protocolos definen un conjunto de reglas para intercambiar información. En la actualidad existen diversos protocolos de comunicación comerciales, incluso algunas empresas de telecomunicaciones tales como la AT&T han llegado a desarrollar sus propios protocolos, en función de los servicios que ofrezcan a sus usuarios. Estos protocolos, utilizados la mayoría de las veces sin darnos cuenta, nos ayudan a realizar transacciones en Internet, transferencias por módem o una simple comunicación con un servicio on-line de algún banco.

A continuación se relacionan los protocolos más importantes y comerciales existentes actualmente (cada uno de ellos realizado para diferentes tipos de tareas) aunque la cantidad que se ha desarrollado es mucho más amplia:

  • FTP:

El protocolo FTP o File Transfer Protocol (protocolo de transferencia de archivos) tiene como principales objetivos promover el compartir archivos entre computadoras (programas y datos), alentar el uso remoto de las computadoras, y transferir datos de una forma segura y óptima por computadora. FTP está más enfocado a que los programas lo usen entre ellos para comunicarse que para ser usado por un usuario directamente.

  • HTTP:

El protocolo Hypertext Transfer Protocol (protocolo para la transferencia de hipertextos) se utiliza para todos los sistemas de información distribuidos en que se tenga la necesidad de mostrar la información y transmitirla por una comunicación normal haciendo uso de las características de este lenguaje. Este protocolo se utiliza para visualizar páginas Web.

  • IPX/SPX:

El Internetwork Packet Exchange, Sequence Packet Exchanged es un protocolo usado y registrado por la compañía mundial de redes NOVELL.

  • POP3:

El protocolo Post Office Protocol versión 3 es un protocolo para la administración de correo en Internet. POP3 se usa para permitir a una estación de trabajo comunicarse con el servidor proveedor de correo.

  • TCP/IP:

El Transfer Communication Protocol/lnternet Protocol, es un conjunto de protocolos de comunicación, es decir convenciones particulares, creadas para permitir la compartición de recursos entre más ordenadores conectados entre sí a través de una red. Dado que sobre Internet pueden encontrarse en conexión todo tipo de entidades, el protocolo TCP/IP permite a máquinas tan distintas por hardware y por prestaciones, comunicarse entre sí de manera transparente.

En Internet el protocolo TCP/IP es el que se encarga de garantizar la comunicación fiable entre equipos, y para cada uno de los servicios proporcionados por Internet se ha desarrollado un protocolo específico: http para el World Wide Web, https para el World Wide Web Secure (acceso seguro), smtp para el correo electrónico, nntp para el acceso a grupos de noticias (news), etc. La descripción de cada uno de estos protocolos y de otros servicios de Internet se recoge en una serie de documentos denominados RFCs (Request For Comments), elaborados por los equipos de trabajo encargados de su desarrollo dentro de las organizaciones que rigen Internet.