Category Archive TECNOLOGÍA

Poradmin

GERENCIA DE OPERACIONES

La tecnología son las herramientas técnicas y acciones que se emplean para transformar los insumos organizaciones en productos. La tecnología es el proceso de producción de una organización e incluye la maquinaria y los procedimientos de trabajo.

La realización de estos análisis es una herramienta valiosa para las operaciones de una empresa, también es un aliado efectivo para las decisiones de la gerencia. Los estados financieros tienen fundamental importancia, debido a que nos dará la capacidad de tomar importantes decisiones de control, planeación y estudios de proyectos.

En este trabajo exploraremos la naturaleza de las tecnologías de la organización y la relación entre tecnología y estructura organizacional. El capítulo tres describió la forma en que el entorno influye en el diseño de la organización. La pregunta que se responde en éste es. ¿Cómo diseñar la estructura de la organización para ajustarse al proceso de producción? Por lo general, la forma sigue a la función, de modo que la estructura de la organización debe ajustarse para que se acomode a las necesidades de la tecnología de producción.

I. TECNOLOGIA AL NIVEL DE LA ORGANIZACION
Las tecnologías al nivel de la organización son de dos tipos: de manufactura y nuevos sistemas de manufactura basados en computadora.

Las empresas por debajo del promedio tendían a separarse de las características estructurales que corresponden a su tipo de tecnología.

Las organizaciones exitosas de producción de pequeños lotes y procesos continua tenían estructuras orgánicas; las organizaciones de producción masiva exitosas, estructuras mecánicas. La investigación posterior ha reforzado sus conclusiones.

Lo que significa para las compañías de hoy es que la estructura, la estrategia y la tecnología tienen que estar en línea, en especial cuando cambian las condiciones de la competencia. Varios investigadores han argumentado que la fortaleza de las empresas japonesas en muchas industrias puede deberse a un alineamiento muy cercano entre su estrategia. Estructura y tecnología.

La mayor competencia global de hoy significa mercados más volátiles. Ciclos de vida de productos más cortos y consumidores más refinados y conocedores; la flexibilidad para atender estas demandas nuevas se ha convertido en un imperativo estratégico de muchas compañías.

II. CONSECUENCIAS ESTRUCTURALES
La mayoría de organizaciones experimentan varios niveles de interdependencia en una empresa manufacturera el desarrollo de productos nuevos significa interdependencia recíproca.

2.1. TECNOLOGIA AVANZADA DE INFORMACION (AIT)
Las organizaciones han pasado rápidamente de la época de la computadora a la época de la información, resultado de la revolución de los microprocesadores. Esta revolución permitió al surguimiento de los sistemas de fabricación integrados por computadora (CIM).

Los microprocesadores permiten también la dispersión de grandes computadoras centrales, en computadoras personales y estaciones de trabajo por todo la organización.

III. CONSECUENCIAS PARA LA GERENCIA
– La tecnología avanzada de información permite que los Gerentes están mejor conectados con la organización, el entorno y entre ellos, mejoramientos específicos en los procesos gerenciales son:
1. Mayor participación en la toma de decisiones
2. Toma de decisiones más rápida
3. Mejor inteligencia organizacional

3.1.- DISEÑO DE LA ORGANIZACIÓN
– Los resultados específicos son:
1. Estructuras de organización más planos.
2. Mejor centralización o descentralización.
3. Mejor conciliación
4. Tareas menos limitados
5. Mayor proporción de profesionales en el personal.

IV. IMPACTO DE LA TECNOLOGIA EN EL DISEÑO DE PUESTOS
El impacto final de la tecnología sobre los empleados puede comprenderse parcialmente mediante los conceptos de diseño de puestos y sistemas sociotécnicos.

a. Diseño de Puestos
La investigación ha estudiado si las nuevas tecnologías tienden a simplificar o a enriquecer los puestos, las tecnologías nuevas cambian la forma en que se desempeñan los puestos y su naturaleza. Por ejemplo las tecnologías de producción masiva producen la Simplificación del Puesto, en cambio las tecnologías mas avanzadas han causado el enriquecimiento del puesto.

b. Sistemas Sociotécnicos
El enfoque de sistemas sociotécnicos combina las necesidades de la gente con las necesidades de eficiencia técnica.
La meta del enfoque sociotécnico es la optimización conjunto que afirma que una organización funciona mejor solo si sus sistemas sociales y técnicos se diseñan para satisfacer necesidades mutuas de los sistemas.

4.1. Herramienta fundamental contable y controladora de las organizaciones
La importancia de tener un buen sistema de control interno en las organizaciones, se ha incrementado en los últimos años, esto debido a lo práctico que resulta al medir la eficiencia y la productividad al momento de implantarlos; en especial si se centra en las actividades básicas que ellas realizan, pues de ello dependen para mantenerse en el mercado. Es bueno resaltar, que la empresa que aplique controles internos en sus operaciones, conducirá a conocer la situación real de las mismas, es por eso, la importancia de tener una planificación que sea capaz de verificar que los controles se cumplan para darle una mejor visión sobre su gestión.

Por consiguiente, el control interno comprende el plan de organización en todos los procedimientos coordinados de manera coherente a las necesidades del negocio, para proteger y resguardar sus activos, verificar su exactitud y confiabilidad de los datos contables, así como también llevar la eficiencia, productividad y custodia en las operaciones para estimular la adhesión a las exigencias ordenadas por la gerencia. De lo anterior se desprende, que todos los departamentos que conforman una empresa son importantes, pero, existen dependencias que siempre van a estar en constantes cambios, con la finalidad de afinar su funcionabilidad dentro de la organización.

Siendo las cosas así, resulta claro, que dichos cambios se pueden lograr implementando y adecuando controles internos, los cuales sean capaces de salvaguardar y preservar los bienes de un departamento o de la empresa. Dentro de este orden de ideas, (Catácora, 1996:238), expresa que el control interno:

“Es la base sobre el cual descansa la confiabilidad de un sistema contable, el grado de fortaleza determinará si existe una seguridad razonable de las operaciones reflejadas en los estados financieros. Una debilidad importante del control interno, o un sistema de control interno poco confiable, representa un aspecto negativo dentro del sistema contable”.

En la perspectiva que aquí adoptamos, podemos afirmar que un departamento que no aplique controles internos adecuados, puede correr el riesgo de tener desviaciones en sus operaciones, y por supuesto las decisiones tomadas no serán las más adecuadas para su gestión e incluso podría llevar al mismo a una crisis operativa, por lo que, se debe asumir una serie de consecuencias que perjudican los resultados de sus actividades.

Después de revisar y analizar algunos conceptos con relación al control, se puede decir que estos controles nos permite definir la forma sistemática de como las empresas han visto la necesidad de implementar controles administrativos en todos y cada uno de sus operaciones diarias. Dichos controles se deben establecer con el objeto de reducir el riesgo de pérdidas y en sus defectos prever las mismas.

Sea cual sea la aplicación del control que se quiere implementar para la mejora organizativa, existe la posibilidad del surgimiento de situaciones inesperadas. Para esto es necesario aplicar un control preventivo, siendo estos los que se encargaran de ejecutar los controles antes del inicio de un proceso o gestión administrativa. Adicionalmente, se cuentan con controles de detección de los cuales se ejecutan durante o después de un proceso, la eficacia de este tipo de control dependerá principalmente del intervalo de tiempo transcurrido entre la ejecución del proceso y la ejecución del control. Para evaluar la eficiencia de cualquier serie de procedimiento de control, es necesario definir los objetivos a cumplir.

Una vez que el sistema está operando, se requiere de una previsión sobre una base de pruebas para ver si los controles previstos están operando como se planeó. Por esto el control interno no puede funcionar paralelamente al sistema, por estar estos íntimamente relacionados, es decir, funcionan como un todo, para lograr el objetivo establecido por la organización.

4.2. Diseño de Productos/Servicios
El servicio de información y reservas SOLRES esta conectado a todas las redes mundiales de distribución (GDS).
Los sistemas centrales de reservas CRS constituyen un elemento fundamental en la comercialización de cualquier hotel. Sol Meliá, utilizando la más avanzada tecnología ha desarrollado su propio sistema central de reservas denominado SolRes.

A través de SolRes, enlazado con una red telefónica, es posible hacer una reserva de forma instantánea y gratuita desde cualquier lugar del mundo. SolRes posee una amplia variedad de funciones de gestión y control que permiten optimizar las distintas disponibilidades de habitación y tarifas maximizando, de esta forma, los ingresos del hotel.

SolRes está además conectado con los principales sistemas de las lineas aereas (Global Distribution System – GDS). Mediante esta conexión los establecimientos de Sol Meliá son accesibles en este momento y en tiempo real desde 100,000 agencias de viajes a través de 550,000 terminales en todo el mundo.
4.3. Proceso De La Gerencia De Proyectos
Generalmente se dice que la gerencia de marketing y la gerencia de operaciones necesitan trabajar conjuntamente si es necesario para satisfacer al cliente. Así pues, se considera que el marketing tiene una función que desempeñar en las fases necesarias de pronóstico y planeación de la gerencia de operaciones a través de la investigación de marketing; la especificación del producto y el diseño del producto son también áreas significativas en las cuales también puede contribuir la gerencia de marketing; de igual manera, toda el área de logística del mercadeo conjuga las funciones de la gerencia de marketing y la gerencia de operaciones, debido a que ambas están interesadas por el transporte, entrega, niveles de inventario y servicio al cliente.

En las empresas de servicios la cooperación entre marketing y operaciones es vital. En este tipo de empresas el marketing es muy importante para dejárselo a los gerentes y las operaciones son muy importantes para dejárselas al gerente de operaciones. Esto se debe a que un componente importante de cualquier producto de servicio, desde el punto de vista de el cliente, es cómo funciona el proceso de prestación de un servicio.

Los clientes de las empresas de servicios obtienen beneficios y satisfacciones de los propios servicios y de la forma como se prestan esos servicios. La forma en que operan dichos servicios es algo relevante. Los sistemas de servicios que operan eficiente y efectivamente, pueden dar a la gerencia de marketing un considerable apalancamiento y ventaja promocional. Es claro que la operación uniforme de un servicio ofrece ventajas competitivas, especialmente cuando la diferenciación entre productos puede ser mínima. Es decir, existirán ventajas si se funciona a tiempo, si no se exige demasiado a los clientes, o, entregan lo prometido. Asegurar que los sistemas de servicios funcionen eficiente y efectivamente, tradicionalmente es una tarea del gerente de operaciones. En sistemas de servicios las consecuencias para el rendimiento operativo del marketing son tan importantes que las dos funciones tiene que cooperar. En servicios, el marketing tiene que participar en los aspectos operativos del rendimiento tanto como los gerentes de operaciones; es decir, con el “como” y con el “proceso de la prestación de un servicio.

El personal puede mitigar la descomposición del sistema, hasta cierto punto, prestando atención placentera y considerada a los problemas de los clientes. Unas instalaciones físicas agradables pueden suavizar el contratiempo de esperar más tiempo del previsto. Pero no pueden compensar totalmente las ineficiencias y las fallas del sistema. Qué tan bien funcione el sistema general, sus procedimientos y políticas, la participación del cliente en el proceso, el grado de estandarización del sistema; todas estas son preocupaciones tanto de marketing como de operaciones.

La gerencia de operaciones no tiene que ver solamente con manufactura, las empresas de servicios están descubriendo cada vez más que las ideas y prácticas de la gerencia de operaciones ya son un insumo esencial para su control de costos, mejora del sistema y niveles de servicio al cliente.

Operaciones se define como “un medio por el cual los insumos de recursos se combinan, reforman, transforman y se separan para crear resultados útiles (bienes y servicios) La gerencia de operaciones se refiere a la planeación, organización y control de este proceso de conversión de recursos. El concepto útil es importante; para efectos del proceso es agregar utilidad o valor por encima de todos los costos en los cuales se incurre para obtener insumos del sistema y emprender el proceso de transformación.

Los sistemas operativos de servicios pueden ser clasificados, esta clasificación puede ser de varias maneras las que están relacionadas con el tipo de proceso y con el grado de contacto.

Según el tipo de proceso, los tres procesos aplicables a las empresas de servicios son:
1. Operaciones en línea: En una operación en línea hay una secuencia organizada de operaciones o actividades. El servicio se produce siguiendo esta secuencia. El alto grado de interrelación entre los diferentes elementos de una operación de línea significa que el rendimiento general está limitado por el rendimiento en el eslabón más débil del sistema y pueden surgir demoras en la entrega del servicio completo. Igualmente tiende a ser un tipo de proceso relativamente inflexible, aunque las tareas del proceso se puedan especializar y rutinizar dando un resultado más rápido. Este proceso es más conveniente en empresas de servicios con altos volúmenes de demanda continua de clases de servicios relativamente estándares.
2. Operaciones combinadas: Una operación combinada produce una variedad de servicios que utilizan diferentes combinaciones y secuencias de actividades. Los servicios se pueden ajustar para satisfacer diversas necesidades de los clientes y ofrecer un servicio solicitado. Si bien la flexibilidad es una ventaja clave de este tipo de sistema, puede resultar más difícil de programar, más difícil de sustituir capital por mano de obra en el sistema y puede ser más difícil de calcular la capacidad del sistema.
3. Operaciones intermitentes: Las operaciones intermitentes se refieren a los proyectos de servicios que son una vez o infrecuentemente repetidos. La escala de esos proyectos hace que su administración resulte una tarea compleja. Esos proyectos ofrecen un campo apropiado para la fácil transferencia de muchas técnicas de control y programación. La escala e infrecuencia de dichos proyectos los diferencia de las operaciones de línea y combinadas.

Algunas de las dificultades de la gerencia de operaciones en los servicios consiste en: establecer los objetivos, utilización de la capacidad, la participación de la gente en el proceso, el conflicto interfuncional, control de calidad y en la aplicación del concepto de sistema. Una explicación de cada uno de estos puntos es:
a. Establecer objetivos en los sistemas de servicios: En algunos sistemas de servicios no se pueden utilizar medidas convencionales como utilidades y retorno sobre la inversión, se ocupan métodos alternos. Por lo tanto, en los servicios sin ánimo de lucro y el sector de servicios sociales, puede ser difícil y complejo establecer objetivos, a nivel general y a nivel de unidad operativa. Normalmente los objetivos para este tipo de servicios tendrán que incorporar medidas del nivel y calidad del servicio que en algunas partes se suministran, y éstas plantean dificultades.
b. Utilización de la capacidad: La intangibilidad de los servicios significa que hay limitaciones para la creación de inventarios, aunque naturalmente la gente y sus habilidades se pueden inventariar por acumulación de trabajo, y las instalaciones se pueden inventariar para ofrecer capacidad extra en caso necesario. Generalmente en los servicios lo que no se usa o está inactivo se pierde y no se puede emplear para llenar ninguna sobrecarga que pueda haber en el futuro. Una decisión fundamental en la administración de un servicio es qué nivel de capacidad se suministrará. Demasiada hace la operación antieconómica; muy poca puede causar dificultades en la prestación del servicio y malestar en el cliente debido a la ineficiencia y pérdida de negocios. La mayor parte de las organizaciones de servicios no puede tener algo así como una “existencia de servicios”.
c. Participación de la gente en el proceso del servicio: Como se dijo anteriormente, los clientes con frecuencia juzgan la calidad de un servicio y quedan satisfechos con él a través de la calidad de la relación de que disfrutan con los empleados del servicio. Evidentemente los modales de los empleados, la calidad de su capacitación y su conocimiento de los servicios disponibles son influencias importantes sobre dichas satisfacciones. Pero a la larga los empleados operan sistemas. Los empleados pueden hacer todo lo que les sea posible para ayudar a los clientes, pero no pueden compensar totalmente sistemas malos, ineficientes e injustos.

En la gerencia de operaciones hay transacción entre la gente y los sistemas. Quitar discreción a los empleados de un servicio que opera en un sistema puede tener buen sentido económico y dar como resultado un servicio más estandarizado. También puede significar servicio más económico, tal vez de una calidad más uniforme. Sin embargo, eso sólo se puede lograr a costa de la satisfacción del empleado. Las tareas que están rutinizadas y sistematizadas pueden ser menos exigentes intelectualmente y enriquecedoras para los empleados y pueden reducir su motivación. Esto a su vez puede producir una influencia perjudicial sobre la calidad de los servicios que ello ofrecen finalmente.

En los sistemas de alto contacto los clientes también participan en el proceso de prestación del servicio. El diseño del sistema del servicio debe tomar en cuenta sus reacciones y su motivación: “… los consumidores participan en el proceso de producción, por lo tanto, ellos también son un insumo para esta…
d. Conflicto organizacional en los sistemas de servicios: Ciertas clases de servicios requieren el manejo de numerosas unidades pequeñas, que pueden estar dispersas geográficamente. Las operaciones centrales pueden limitarse a operaciones estratégicas sobre cosas tales como escoger nuevos sitios para los servicios, planear futura capacidad, establecer políticas de personal y capacitación, controlar finanzas y compras. Pero en el sitio o nivel de sucursal los gerentes tienen que operar el sistema. Ellos tiene una función clave con responsabilidades en el marketing, operaciones y personal, lo cual convierte a la operación en el sitio del servicio en una función “gerencial general” de más significado. Existe una buena cantidad de influencia e interdependencia entre funciones que pueden conducir a problemas de conflictos cuando los gerentes tratan de equilibrar las necesidades de operaciones y marketing o de operaciones y personal. Se han identificado cuatro fuentes generales de conflicto interfuncional entre marketing y operaciones cuando una empresa de servicios está introduciendo alguna innovación. Estas son:
e. Diferentes motivaciones para el cambio. Las diferentes funciones pueden tener diferentes motivos para el cambio, pudiendo ser por un desarrollo técnico, por un aumento en la participación de mercado, etc.

Ingresos versus orientación del costo. Los gerentes de operaciones tienden a preocuparse por la eficiencia y reducción de los costos, los gerentes de marketing por oportunidades para aumentar ventas e ingresos.

Diferentes horizontes de tiempo. El marketing puede adoptar una orientación a corto plazo que se concentre en intereses actuales y operaciones; una orientación a largo plazo para traer nueva tecnología y nuevos procedimientos operativos.
Ajuste percibido del nuevo servicio con operaciones existentes. Un nuevo servicio introducido por marketing puede ser incompatible y no ajustarse a los sistemas operativos existentes.
f. Control de calidad. Otra dificultad es el control de calidad. Muchos principios de control de calidad aplicables a manufactura, se pueden aplicar también a los servicios. Algunos de estos incluyen:

El control de calidad incluye a todo el mundo en una operación de servicio en tareas visibles y no visibles. Es necesario utilizar sistemas para identificar fallas de calidad, recompensar éxitos y ayudar con mejoras. El control de calidad puede mejorarse reemplazando gente con máquinas, especialmente en tareas de rutina.

Poradmin

Clusters de Computadoras

El mismo término de Clusters se aplica a los conjuntos o conglomerados de computadoras, construidos utilizando componentes de hardware comunes y software libre, juegan hoy en día, un papel importante en la solución de problemas de las ciencias, las ingenierías y aplicaciones comerciales.

Los Clusters han evolucionado para apoyar actividades en aplicaciones que van desde supercómputo y software de misiones críticas, servidores Web y comercio electrónico, bases de datos de alto rendimiento.

El cómputo en Clusters surge como resultado de la convergencia de varias tendencias que incluyen, la disponibilidad de microprocesadores de alto rendimiento más económicos y redes de alta velocidad, el desarrollo de herramientas de software para cómputo distribuido de alto rendimiento, y la creciente necesidad de potencia computacional para aplicaciones en las ciencias computacionales y comerciales.

Por otro lado, la evolución y estabilidad que ha alcanzado el sistema operativo Linux, ha contribuido importantemente al desarrollo de muchas tecnologías nuevas, entre ellas la de Clusters.

Mucha gente pensaría que las palabras “cluster” o “cluster de servidores” indican un grupo de computadoras de alto rendimiento utilizados en las investigaciones científicas. Sin embargo este es sólo un tipo de Cluster. La idea detrás del concepto de “cluster de alto rendimiento” es hacer que un número grande de máquinas individuales actúen como una sola máquina muy potente. Este tipo de clusters se aplica mejor en problemas grandes y complejos que requieren una cantidad enorme de potencia computacional. Entre las aplicaciones más comunes de clusters de alto rendimiento se encuentra el pronóstico numérico del estado del tiempo, astronomía, investigación en criptografía, análisis de imágenes, y más.

Un segundo tipo de tecnología de clusters, es el “cluster de servidores virtuales”, permite que un conjunto de servidores de red compartan la carga de trabajo de tráfico de sus clientes. Al balancear la carga de trabajo de tráfico en un arreglo de servidores, mejora el tiempo de acceso y confiabilidad. Además como es un conjunto de servidores el que atiende el trabajo, la falla de uno de ellos no ocasiona una falla catastrófica total. Este tipo de servicio es de gran valor para compañías que experimental grandes volúmenes de tráfico en sus sitios Web.(Figura)

El último tipo importante de clusters, involucra el tener servidores que actúan entre ellos como respaldos vivos de la información que sirven. Este tipo de clusters se les conoce como “clusters de alta disponibilidad” o “cluster de redundancia”.

Además del concepto de Cluster, existe otro concepto más amplio y general que es el Cómputo en Malla (Grid Computing). Una Malla es un tipo de sistema paralelo y distribuido que permite la compartir, seleccionar y añadir recursos que se encentran distribuidos a lo largo de dominios administrativos “múltiples” basados en su disponibilidad, capacidad, rendimiento, costo y calidad de servicio que requiere un usuario.

Si los recursos distribuidos se encuentran bajo la administración de un sistema central único de programación de tareas, entonces nos referiremos a un Cluster. En un Cluster, todos los nodos trabajan en cooperación con un objetivo y una meta común pues la asignación de recursos los ejecuta un solo administrador centralizado y global. En una Malla, cada nodo tiene su propio administrador de recursos y política de asignación.

¿Cómo funciona un Cluster?

En su parte central, la tecnología de Clusters consta de dos partes. La primera componente, consta de un sistema operativo confeccionado especialmente para esta tarea (modificaciones al kernel de Linux), un conjunto de compiladores y aplicaciones especiales, que permiten que los programas que se ejecutan sobre esta plataforma tomen las ventajas de esta tecnología de Clusters.

La segunda componente es la interconexión de hardware entre las máquinas (nodos) del Cluster. Se han desarrollado interfaces de interconexión especiales muy eficientes, pero comúnmente las interconexiones se realizan mediante una red Ethernet dedicada de alta velocidad. Es mediante esta interfaz que los nodos del Cluster intercambian entre si asignación de tareas, actualizaciones de estado y datos del programa. Existe otra interfaz de red que conecta al Cluster con el mundo exterior.

Cuando se habla de resolver un problema en paralelo, se refiere a dividir un trabajo en varias tareas que se pueden desarrollan en paralelo. Esto es lo que sucede en un Cluster de Alto Rendimiento y la solución de los problemas se termina más rápido. Por ejemplo, es más rápido pintar un edificio de 32 cuartos si se cuenta con una brigada de 8 pintores que pinten cada uno 4 cuartos, todos sincronizados a trabajar al mismo tiempo.

La tecnología de Clusters de Alto Rendimiento para Linux más conocida es el la tecnología Beowulf. Esta tecnología se desarrolló en la NASA y puede proporcionar potencial de cómputo del tipo de una supercomputadora utilizando computadoras personales sencillas. Al conectar estas entre si mediante una red Ethernet de alta velocidad, las computadoras personales se combinan para lograr la potencia de una supercomputadora. El nombre de Beowulf es tomado del nombre de un héroe de la mitología danesa relatado en el libro La Era de las Fábulas, del autor norteamericano Thomas Bulfinch (1796-1867).

Los servidores de un Cluster de Alta Disponibilidad normalmente no comparten la carga de procesamiento que tiene un Cluster de Alto Rendimiento. Tampoco comparten la carga de tráfico como lo hacen los Clusters de Balance de Carga. Su función es la de esperar listos para entrar inmediatamente en funcionamiento en el caso de que falle algún otro servidor. La característica de flexibilidad que proporciona este tipo de tecnología de Cluster, lo hacen necesario en ambientes de intercambio intensivo de información.

Los clusters de alta disponibilidad permiten un fácil mantenimiento de servidores. Una máquina de un cluster de servidores se puede sacar de línea, apagarse y actualizarse o repararse sin comprometer los servicios que brinda el Cluster. Cuando el servidor vuelve a estar listo, se incorpora al Cluster y se puede dar servicio al siguiente servidor del grupo.

Adicionalmente a los Clusters tipo Beowulf, existen las siguientes tecnologías similares:

MOSIX. Esta tecnología basada en Linux, permite realizar balance de carga para procesos particulares en un cluster. Trabaja como un Cluster de Alto Rendimiento en el sentido de que está diseñado para tomar ventaja del hardware más rápido disponible en el cluster para cualquier tarea que le sea asignada. Pero, lo realiza balanceando la carga de las varias tareas en varias máquinas.

Una de las grandes ventajas de MOSIX es que no requiere la confección especial de software como lo requiere los clusters tipo Beowulf. Los usuarios ejecutan sus programas normalmente y el sistema MOSIX se encarga del resto.
Otro tecnología de clusters es el paquete Piranha, que permite a los servidores Linux proveer alta disponibilidad sin la necesidad de invertir cantidades mayores en hardware. La tecnología de cluster es basado completamente en software, donde los servidores se se comunican en una red de alta velocidad. Se puede configurar para trabajar como Cluster de Alta Disponibilidad o de Balance de Carga.
El Piranha puede configurar un servidor de respaldo en caso de fallo de la contraparte. También puede hacer que el cluster aparezca como un servidor virtual.
¿Por qué construir un Cluster?

Los beneficios de construir un Cluster sería benéfico en varios aspectos en una variedad de aplicaciones y ambientes:

incremento de velocidad de procesamiento ofrecido por los clusters de alto rendimiento
incremento del número de transacciones o velocidad de respuesta ofrecido por los cluster de balance de carga
incremento de confiabilidad ofrecido por los clusters de alta disponibilidad
Por ejemplo, en la investigaciones meteorológicas y pronóstico numérico del estado del tiempo, se requiere el manejo de cantidades masivas de datos y cálculos muy complejos. Al combinar el poder de muchas máquinas del tipo estación de trabajo o servidor, se pueden alcanzar niveles de rendimiento similares a los de las supercomputadoras, pero a menor costo (pues estas requieren de hardware y software especializado muy caro, así como personal de soporte técnico dedicado) .

Otro ejemplo sería el de la situación de un sitio Web de mucho tráfico. Si no se cuenta con un plan de alta disponibilidad, cualquier problema menor de una tarjeta de red, puede hacer que un servidor quede completamente inutilizado. Pero al contar con servidores redundantes y servidores de respaldo instantáneos, se puede reparar el problema mientras el sitio funciona con el plan de respaldo, sin suspensión de servicio.

Antecedentes de los Clusters de Computadoras y la Clase Beowulf
En muchas ramas de las ciencias la complejidad de los problemas que se estudian requieren contar acceso a una supercomputadora, siendo éstas máquinas poderosas que pueden desarrollar varios miles de millones de operaciones por segundo. Las supercomputadoras tradicionales emplean procesamiento en paralelo; contienen arreglos de microprocesadores ultrarrápidos que trabajan en sincronía para resolver problemas complejos como pronósticos numéricos del estado del tiempo, o modelar estructuras complejas de la materia. Los fabricantes de supercomputadoras como Cray, IBM, Silicon Graphics, entre otros, producen modelos por diseño especial y cuestan decenas de millones de dólares – precios que van más allá de los presupuestos de inversión de los grupos de investigación.
En los últimos años, el personal académico de diversas universidades y centros de investigación se han dado a la tarea de aprender a construir sus propias supercomputadoras conectando computadoras personales y desarrollando software para enfrentar tales problemas extraordinarios.
En 1994, se integró el primer cluster de PCs en el Centro de Vuelos Espaciales Goddard de la NASA, para resolver problemas computacionales que aparecen en las ciencias de la Tierra y el Espacio. Los pioneros de este proyecto fueron Thomas Sterling, Donald Becker y otros científicos de la NASA. El cluster de PCs desarrollado tuvo una eficiencia de 70 megaflops (millones de operaciones de punto flotante por segundo). Los investigadores de la NASA le dieron el nombre de Beowulf a este cluster, en honor del héroe de las leyendas medievales, quien derrotó al monstruo gigante Grendel.
En 1996, hubo también otros dos sucesores del proyecto Beowulf de la NASA. Uno de ellos es el proyecto Hyglac desarrollado por investigadores del Instituto Tecnológico de California (CalTech) y el Laboratorio de Propulsión Jet (JPL), y el otro, el proyecto Loki construido en el Laboratorio Nacional de Los Alamos, en Nuevo México. Cada cluster se integró con 16 microprocesadores Intel Pentium Pro y tuvieron un rendimiento sostenido de más de un gigaflop con un costo menor a $50,000 dólares.
En 1996, en el Laboratorio Nacional de Oak Ridge en Tennessee, se enfrentaban al problema de elaboración de un mapa de las condiciones ambientales del territorio de Estados Unidos. El territorio fue dividido en 7.8 millones de celdas de 1Km. Cada celda contenía la información de 25 variables, desde la precipitación promedio mensual hasta el contenido de Nitrógeno del suelo. Ninguna estación de trabajo o PC podría con esta tarea. Se requería una supercomputadora de procesamiento paralelo. En la actualidad cuentan con un cluster de 130 PCs para trabajar en la elaboración del mapa de eco regiones.
Como grabar Cd’s en Linux:
Para poder grabar cd’s en Linux lo que necesitaras será lo siguiente:
-Desde luego una grabadora de cd’s.
-Un disco duro con al menos 800 Mb libres para guardar las imágenes del cdrom que vayas a grabar.
-Un programa de grabación de cd’s para Linux como por ejemplo el CD roast.
La problemática de grabación de Cd’s es la incompatibilidad entre los formatos de los diferentes sistemas operativos, en 1988 se creo el estándar ISO9660 que era el formato estándar para todos los sistemas operativos lo malo que tiene es que fue diseñado cuando el sistema operativo mas extendido era el MS-DOS con el inconveniente de solo soportar 8+3 caracteres, desde entonces los desarrolladores de sistemas operativos han evolucionado este formato, con el inconveniente de hacerlo incompatible. Actualmente el formato de Linux y sistemas Unix en general es el Rockbridge, el de Windows 9X es el formato Joliet, para macintosh el formato HFS.

Lo siguiente antes de comenzar a gravar tus cd’s es saber si tu grabadora es compatible con los programas de grabación de Linux, esto lo puedes verificar en la siguiente dirección web: www.guug.de:8080/cgi-bin/winni/lsc.pl, Linux soporta las grabadoras con los interfaces IDE Y SCSI, para grabar cd’s desde Linux o Windows lo mas recomendable es utilizar grabadoras SCSI ya que ofrecen prestaciones superiores a las IDE que son mas económicas pero con prestaciones inferiores. En el caso de que la grabadora no este soportada por Linux lo único que puedes hacer para poder grabar un cd para Linux con el formato Rockbridge es crear una imagen del cd en cuestión y pasarlo a la partición de windows y utilizar un programa de grabación de windows que de soporte a tu grabadora y ya puedes grabar desde windows un cd con formato para Linux.
Para poder utilizar la grabadora en Linux lo primero será configurarla para que el sistema lo reconozca, tenemos que saber si nuestra grabadora es SCSI, IDE o IDE conectada por puerto serie, si la grabadora a instalar va a ser SCSI tendrás que tener una controladora SCSI que tendrás que configurar, antes de adquirirla asegurate que esta soportada por Linux (generalmente una controladora de una marca conocida como adaptec están soportadas por Linux), lo siguiente será recompilar el kernel para dar soporte a la controladora y la grabadora, recomiendo que integres el driver en el núcleo en vez de usar un modulo cargable ya que seguramente vas a usar la grabadora muy a menudo.
El siguiente paso será el de la creación de la imagen del cd a grabar: Para esto existen varios programas como el mkisofs y mkhybrid, yo recomiendo el ultimo ya que soporta mas formatos de archivos que el primero.
Y para grabar existen varios programas como el cdwrite y el cdrecord, yo recomiendo el segundo ya que esta mas desarrollado que el cdwrite, antes de iniciar el proceso de grabación tienes que configurar tu sistema para ver los dispositivos de copia de nuestro sistema tienes que ejecutar el siguiente comando cdrecord -scanbus, y en la lista que salga debera estar la grabadora.
El siguiente paso será comenzar a grabar el cd, con el siguiente comando comenzaras a grabar el cd: cdrecord -v speed=2 dev=ID,LUN CDimage, debes adaptar esta orden a tu sistema.
Nota Importante: Durante la grabación no es recomendable usar el ordenador ya que lo mas seguro es que provocásemos un vacío en el buffer (La grabación se debe hacer a una velocidad estable sin caídas). Espero que no pierdas muchos CD’s.
CONCLUSIÓN
La verdad es que hoy en día los clusters están a la orden del día y cada vez más compañías y universidades recurren a ellos. En muchas universidades españolas algunos departamentos disponen de un cluster para sus necesidades de cálculo y lo que es más, se está llegando hasta el punto de que algunos profesores tienen un pequeño cluster de varias máquinas en su propio despacho.

Simplemente, si se buscan grandes capacidades de proceso está es prácticamente la única manera barata de satisfacer estas necesidades.

En la red hay mucha información interesante sobre clustering algunos enlaces interesantes pueden ser

Poradmin

BANDA ANCHA

El desarrollo de la computación y su integración con las telecomunicaciones en la telemática han propiciado el surgimiento de nuevas formas de comunicación, que son aceptadas cada vez por más personas. El desarrollo de las redes informáticas posibilito su conexión mutua y, finalmente, la existencia de Internet, una red de redes gracias a la cual una computadora puede intercambiar fácilmente información con otras situadas en regiones lejanas del planeta.
La información a la que se accede a través de Internet combina el texto con la imagen y el sonido, es decir, se trata de una información multimedia, una forma de comunicación que esta conociendo un enorme desarrollo gracias a la generalización de computadores personales dotadas del hardware y software necesarios. El último desarrollo en nuevas formas de comunicación es la realidad virtual, que permite al usuario acceder a una simulación de la realidad en tres dimensiones, en la cual es posible realizar acciones y obtener inmediatamente una respuesta, o sea, interactuar con ella.
El uso creciente de la tecnología de la información en la actividad económica ha dado lugar a un incremento sustancial en el número de puestos de trabajo informatizados, con una relación de terminales por empleado que aumenta constantemente en todos los sectores industriales.
Las Redes de Área Local han sido creadas para responder a ésta problemática. El crecimiento de las redes locales a mediados de los años ochenta hizo que cambiase nuestra forma de comunicarnos con los ordenadores y la forma en que los ordenadores se comunicaban entre sí.

I.- CONCEPTUALIZACION
1.1.- ¿Qué es la banda ancha?
Muchas personas asocian a la banda ancha con determinada velocidad de transmisión o un conjunto específico de servicios, tales como el bucle de abonado digital (DSL) o las redes inalámbricas de área local (WLAN). Sin embargo, puesto que las tecnologías de banda ancha cambian continuamente, su definición va evolucionando a la par. Hoy en día el término banda ancha normalmente describe a las conexiones Internet recientes que funcionan entre 5 y 2 000 veces más rápido que las anteriores tecnologías de marcación por Internet. Sin embargo, el término banda ancha no se refiere a una velocidad determinada ni a un servicio específico. El concepto de banda ancha combina la capacidad de conexión (anchura de banda) y la velocidad. En la Recomendación I.113 del Sector de Normalización de la UIT se define la banda ancha como una “capacidad de transmisión más rápida que la velocidad primaria de la red digital de servicios integrados (RDSI) a 1,5 ó 2,0 megabits por segundo (Mbits)”.
1.2.- ¿Cómo Funciona la Banda Ancha?
El acceso veloz a Internet hace que las capacidades de procesamiento de datos sean necesarias para usar Internet por medio de una de varias tecnologías de transmisión de mayor velocidad. Estas capacidades son “digitales” por naturaleza, que significa que comprimen información extensa de voz, vídeo, y datos que se dividen en lo que se llaman “bitios.” Estos bitios se convierten en palabras, dibujos, etc., en la pantalla de nuestra computadora.
Las tecnologías que hacen posible el acceso veloz a Internet transmiten estos bitios mucho más rápido que las conexiones tradicionales o inalámbricas.

1.3.- ¿Cuáles son los principales beneficios de la banda ancha?
La banda ancha tiene tres ventajas principales:
1. Las velocidades de la banda ancha son apreciablemente más rápidas que las de tecnologías anteriores, por lo cual resulta más rápido y cómodo acceder a la información o efectuar transacciones en línea utilizando Internet. La velocidad del servicio de banda ancha también ha permitido perfeccionar algunos servicios existentes tales como el de juegos en línea, y ha dado lugar a nuevas aplicaciones como la telecarga de música y vídeos.
2. En función del tipo de tecnología utilizada, la banda ancha puede aportar beneficios económicos. Por ejemplo, gracias a la tecnología DSL, los usuarios pueden utilizar una sola línea telefónica normalizada para servicios de voz y datos. Esto les permite navegar por Internet y efectuar una llamada simultáneamente utilizando la misma línea telefónica. Anteriormente los usuarios asiduos de Internet tenían que instalar una línea telefónica adicional en su vivienda para acceder a Internet; gracias a la banda ancha, ya no se necesitan dos líneas telefónicas.
3. La banda ancha permite perfeccionar las actuales aplicaciones de Internet, al tiempo que abona el terreno para nuevas soluciones que antes resultaban demasiado onerosas, ineficaces o lentas. Éstas varían desde los nuevos servicios de cibergobernanza, tales como rellenar electrónicamente los formularios de impuestos, hasta servicios de salud en línea o el ciberaprendizaje; cabe mencionar asimismo el aumento del nivel de comercio electrónico.
1.4.- ¿Cómo utilizan las personas la banda ancha?
La banda ancha modifica los hábitos del usuario, alentando por ejemplo el uso en modo “siempre activo” y haciendo que el computador del hogar sirva como un dispositivo de entretenimiento multimedios. Hoy en día las aplicaciones más populares de la banda ancha de consumo son la navegación más rápida por Internet, los juegos electrónicos y el intercambio de ficheros. La UIT prevé que, gracias a la aparición de la banda ancha y sus conexiones más rápidas y especializadas, los servicios Internet se seguirán expandiendo en lo que respecta a la navegación por la web, la mensajería instantánea, el intercambio de ficheros, el comercio y el correo electrónicos. Por otro lado, la banda ancha ofrece la posibilidad de desarrollar aplicaciones interactivas, aplicaciones de realidad virtual y otros servicios digitales de alta calidad y gran avidez de anchura de banda.
1
1.5.- ¿Cuál es el perfil de un usuario característico de banda ancha?
Los usuarios de la banda ancha tienden a ser jóvenes con alto nivel de educación. Sin embargo, para que la banda ancha llegue al mercado masivo, el perfil del usuario tendrá que ampliarse y se deberán concebir y comercializar servicios para usuarios empresariales. En lo que respecta en particular a las empresas medianas y pequeñas, la banda ancha les ofrece la ventaja de una velocidad elevada y una gran capacidad de comunicaciones, lo que anteriormente podría no haberles resultado asequible. Sin embargo, incluso las grandes empresas podrían comenzar a utilizar la banda ancha, pues ello les permitiría reducir los costos una centena de veces, en comparación con el costo de algunas redes empresariales privadas actuales.
Es importante señalar que los precios son un factor vital en la decisión de adoptar la banda ancha que toman tanto los clientes como las empresas. Los países en los cuales el grado de penetración de la banda ancha es elevado se caracterizan por unos precios bajos, normalmente como resultado del auge de la competencia y de unos esquemas innovadores para la fijación de precios que atraen a una amplia variedad de clientes.
II.- TIPOS DE TECNOLOGÍAS QUE SON CONSIDERADAS EN LA BANDA ANCHA
Algunos de los tipos más comunes de tecnologías de banda ancha son los siguientes:
2.1.- Líneas de abonado digital (DSL): Actualmente la plataforma más común de banda ancha en el mundo es DSL; ésta utiliza diferentes frecuencias para dividir los servicios de voz y datos utilizando la misma línea telefónica normalizada. Esto significa que los usuarios tienen la posibilidad de navegar por Internet y hablar por teléfono al mismo tiempo, utilizando una sola línea telefónica. Como todas las otras tecnologías de banda ancha, DSL ofrece velocidades más elevadas y una calidad superior al transmitir señales vocales, de datos e imágenes. DSL es un servicio especializado, en el cual cada usuario posee básicamente su propio circuito privado con la oficina telefónica central. Esto implica que la anchura de banda y la velocidad del servicio no varían en función del número de abonados en una zona particular.
2.2.- Módems de cable: Los módems de cable también son una tecnología de banda ancha popular y han prosperado en economías con redes de televisión por cable desarrolladas. Las redes de cables son capaces de transportar diferentes “canales” por el mismo cable físico. Originalmente, estos canales transportaban diferentes canales de televisión; hoy en día, además de esos canales de televisión, un canal envía datos a los usuarios desde Internet y otro canal envía datos de los usuarios de vuelta hacia Internet. La principal diferencia entre DSL y el cable es que todos los abonados a módems de cable en una pequeña zona comparten los mismos canales para enviar y recibir datos. Como resultado de ello, la cantidad de anchura de banda y las velocidades de servicio resultantes para cada usuario dependen de la cantidad de anchura de banda que estén utilizando sus vecinos en el mismo momento.
2.3.- Cable de fibra óptica: A diferencia de las tecnologías DSL y de módems de cable, ambas basadas en hilos de cobre, la tecnología de cables de fibra óptica utiliza láseres para transmitir impulsos de luz a lo largo de filamentos de silicona extremadamente finos. Puesto que la luz utiliza frecuencias más altas, el cable de fibra óptica puede transportar mil veces más datos que la señal eléctrica o las ondas radioeléctricas. En teoría, las fibras ópticas tienen un potencial de anchura de banda casi ilimitado, y ésta es la razón por la cual a menudo se utilizan para conexiones a alta velocidad entre ciudades o en zonas con gran densidad de usuarios dentro de las ciudades. En el pasado, el costo de instalación de los cables de fibra óptica hacía que resultase prohibitivo conectar pequeñas comunidades o viviendas, pero los precios han disminuido hasta el punto en el cual, en varios países, los usuarios pueden ahora conectarse a Internet por cables de fibra óptica a una velocidad 20 veces superior a las de las conexiones más rápidas por DSL y módems de cable. Varios países están instalando gradualmente infraestructuras de fibra, esperando el momento en el cual esta tecnología sea eficaz en relación con el costo, con idea de instalar las conexiones e “iluminar” de fibras el hogar. Entre estos países cabe citar a Corea (República de), Islandia, Japón, Singapur y Suecia.
2.4.- Redes de área local inalámbricas (WLAN) y fidelidad inalámbrica (Wi-Fi): Las WLAN son redes de área local que utilizan ondas electromagnéticas para transmitir y recibir datos a lo largo de cortas distancias, en vez de utilizar redes de hilo. Los dispositivos móviles acceden a la red mediante conexión, por vía radioeléctrica, a un punto de acceso alámbrico que pasa el tráfico hacia adelante y hacia atrás por la red. Las WLAN son un medio eficaz de compartir el acceso inalámbrico a Internet desde una conexión de banda ancha dentro de una distancia de 100 metros. Éstas también se utilizan cada vez más para proporcionar acceso de banda ancha a lo largo de grandes distancias en zonas rurales y países en desarrollo (utilizando equipos y tecnologías especiales para aumentar la distancia efectiva de los puntos de conexión). El tipo más común de tecnología WLAN se conoce como fidelidad inalámbrica (Wi-Fi); sin embargo, Wi-Fi es una de las diversas normas WLAN pero no un sinónimo de éstas. Entre las otras tecnologías WLAN cabe citar Home RF2, HiperLAN2, y 802.11a.
En las zonas rurales y en los países en desarrollo, sobre todo en regiones que no poseen aún acceso a una infraestructura alámbrica tradicional, la banda ancha puede ayudar a “saltear” esas infraestructuras y ofrecer acceso a servicios de voz, datos e Internet. Esto es particularmente visible con las tecnologías WLAN, tales como Wi-Fi, que son fáciles de instalar y poco onerosas. Están en curso en todo el mundo diversos proyectos que apuntan a encontrar el modo de utilizar la tecnología WLAN para el último tramo. Por ejemplo, el Sector de Desarrollo de las Telecomunicaciones de la UIT está ejecutando tres proyectos piloto con el fin de determinar la calidad de funcionamiento de las WLAN para proporcionar acceso comunitario en zonas rurales en Bulgaria, Uganda y Yemen. A medida que van bajando los precios de la fibra óptica, las zonas rurales y las economías en desarrollo podrán llegar a estar en condiciones de dar pasos agigantados y utilizar cableado de fibra óptica de alta velocidad para todas las nuevas conexiones, en vez de las antiguas líneas de cobre que son comunes en todo el mundo en desarrollo.
III.- BANDA ANCHA POR LÍNEAS DE ENERGÍA
Banda ancha por líneas de energía (también conocida como comunicaciones por líneas de energía) es la entrega de datos de comunicación a través de la red de distribución de energía que actualmente existe. Es otra manera de acceder a Internet, la cual permitiría a consumidores navegar en Internet y leer su correo electrónico a mayor velocidad que el acceso tradicional, y comparable con las velocidades de DSL y CM. La banda ancha por líneas de energía transmite la señal del usuario sobre las redes de distribución de energía de tensión baja (110/220V) y mediana (4-20KV). También usa el cableado de energía y los enchufes actuales para la entrega de la señal del usuario en la casa. Otro medio de entrega de señal en casa puede ser WiFi como una extensión al acceso por medio de líneas de energía.
La banda ancha por líneas de energía es una tecnología emergente de acceso de banda ancha, y actualmente está en desarrollo y a prueba. Su mejor ventaja es su capacidad de llegar a todo hogar en la nación dado que las líneas de energía están instaladas en todas partes. Se prevé que poco a poco el servicio se hará disponible a consumidores a precios razonables en los años venideros.
IV.- REDES
Las redes constan de dos o más computadoras conectadas entre sí y permiten compartir recursos e información. La información por compartir suele consistir en archivos y datos. Los recursos son los dispositivos o las áreas de almacenamiento de datos de una computadora, compartida por otra computadora mediante la red. La más simple de las redes conecta dos computadoras, permitiéndoles compartir archivos e impresos.
Una red mucho más compleja conecta todas las computadoras de una empresa o compañía en el mundo. Para compartir impresoras basta con un conmutador, pero si se desea compartir eficientemente archivos y ejecutar aplicaciones de red, hace falta tarjetas de interfaz de red (NIC, NetWare Interfaces Cards) y cables para conectar los sistemas. Aunque se puede utilizar diversos sistemas de interconexión vía los puertos series y paralelos, estos sistemas baratos no ofrecen la velocidad e integridad que necesita un sistema operativo de red seguro y con altas prestaciones que permita manejar muchos usuarios y recursos.
4.1.- Componentes de una red
• Servidor: este ejecuta el sistema operativo de red y ofrece los servicios de red a las estaciones de trabajo.
• Estaciones de Trabajo: Cuando una computadora se conecta a una red, la primera se convierte en un nodo de la ultima y se puede tratar como una estación de trabajo o cliente. Las estaciones de trabajos pueden ser computadoras personales con el DOS, Macintosh, Unix, OS/2 o estaciones de trabajos sin discos.
• Tarjetas o Placas de Interfaz de Red: Toda computadora que se conecta a una red necesita de una tarjeta de interfaz de red que soporte un esquema de red específico, como Ethernet, ArcNet o Token Ring. El cable de red se conectara a la parte trasera de la tarjeta.
• Sistema de Cableado: El sistema de la red esta constituido por el cable utilizado para conectar entre si el servidor y las estaciones de trabajo.
• Recursos y Periféricos Compartidos: Entre los recursos compartidos se incluyen los dispositivos de almacenamiento ligados al servidor, las unidades de discos ópticos, las impresoras, los trazadores y el resto de equipos que puedan ser utilizados por cualquiera en la red.
4.2.-Tipos de redes:
Redes de Área Local (LAN)
La red local o LAN (Local Area Network) es un sistema de comunicaciones de alta velocidad que conecta microcomputadoras o PC y/o periféricos que se encuentran cercanos, por lo general dentro del mismo edificio. Una LAN consta de hardware y software de red y sirve para conectar las que están aisladas. Una LAN da la posibilidad de que los PC compartan entre ellos programas, información y recursos, como unidades de disco, directorios e impresoras y de esta manera esta a disposición la información de cada puesto de trabajo los recursos existentes en otras computadoras.
Se puede comparar el software que gestiona una red local con el sistema operativo de una computadora. Los programas y utilidades que componen el software de la LAN, hacen de puente de unión entre el usuario y el núcleo central de la computadora.
Los programas del software empleado en la LAN nos permitirán realizar varias actividades; en primer lugar, estructurar nuestra computadora, los archivos, las unidades de masa, nombre y código de usuario, etc., y posteriormente entrar dentro del ámbito de la red local, para poder compartir recursos y enviar o recibir mensajes.
La LAN nació con los beneficios de conector de los PC’s o los micro – computadores a fin de compartir información. Mucho antes de que fuera considerada factible la idea de que los PC reemplazara a los macros o mini – computadoras, comenzaron a aparecer los primeros LAN de PC.
El procesador de incorporar una PC o microcomputadora a una LAN consiste en la instalación de una tarjeta de interfase de red NIC en cada computador. Los NIC de cada computadora se conectan con un cable especial de red. El último para implantar una LAN es cargar cada PC un software conocido como sistema operativo de red NOS. El NOS trabaja con el software del sistema operativo de la computadora y permite que el software de aplicación (El procesador de palabras, las hojas de cálculo, entre otros) que sé esta ejecutando en la computadora se comunique a través de la red con otra computadora. Una red de área local es un medio de transmisión de información que proporciona la interconexión, entre diversos ordenadores terminales y periféricos situados en un entorno reducido y perteneciente a una sola organización.
Características de las LAN’s: El radio que abarca es de pocos kilómetros, Por ejemplo: edificios, un campus universitario, un complejo industrial, etc. Utilizan un medio privado de comunicación. La velocidad de transmisión es de varios millones de bps. Las velocidades más habituales van desde 1 hasta 16 Mbits, aunque se está elaborando un estándar para una red que alcanzará los 100 Mbps. Pueden atender a cientos de dispositivos muy distintos entre sí (impresoras, ordenadores, discos, teléfonos, módems, etc.).
Ofrecen la posibilidad de comunicación con otras redes a través de pasarelas o Gateways. Para el caso concreto de una red local, NOVELL NETWARE 3.12: Soporta hasta 250 usuarios trabajando de forma concurrente. Permite hasta 100.000 ficheros abiertos simultáneamente. El mismo servidor sirve de puente o Gateways con otras redes.
Red de Área Amplia (WAN)
Es un sistema de comunicación de alta velocidad que conecta PC’s, entre sí para intercambiar información, similar a la LAN; aunque estos no están limitados geográficamente en tamaño. La WAN suele necesitar un hardware especial, así como líneas telefónicas proporcionadas por una compañía telefónica.
La WAN también puede utilizar un hardware y un software especializado incluir mini y macro – computadoras como elementos de la red. El hardware para crear una WAN también llegan a incluir enlaces de satélites, fibras ópticas, aparatos de rayos infrarrojos y de láser.
4.3.- Ventaja de las redes.
Integración de varios puntos en un mismo enlace
Posibilidad de Crecimiento hacia otros puntos para integración en la misma red
Una LAN da la posibilidad de que los PC’s compartan entre ellos programas, información, recursos entre otros. La máquina conectada (PC) cambia continuamente, así que permite que sea innovador este proceso y que se incremente sus recursos y capacidades.
Las WAN pueden utilizar un software especializado para incluir mini y macro – computadoras como elementos de red. Las WAN no esta limitada a espacio geográfico para establecer comunicación entre PC’s o mini o macro – computadoras. Puede llegar a utilizar enlaces de satélites, fibra óptica, aparatos de rayos infrarrojos y de enlaces
4.4.- Topología de redes.
Se llama topología de una Red al patrón de conexión entre sus nodos, es decir, a la forma en que están interconectados los distintos nodos que la forman. Los Criterios a la hora de elegir una topología, en general, buscan que eviten el coste del encaminamiento (necesidad de elegir los caminos más simples entre el nodo y los demás), dejando en segundo plano factores como la renta mínima, el coste mínimo, etc. Otro criterio determinante es la tolerancia a fallos o facilidad de localización de éstos. También tenemos que tener en cuenta la facilidad de instalación y reconfiguración de la Red.
Hay dos clases generales de topología utilizadas en Redes de Area Local: Topología tipo Bus y Topología tipo Anillo. A partir de ellas derivan otras que reciben nombres distintos dependiendo de las técnicas que se utilicen para acceder a la Red o para aumentar su tamaño. Algunas personas consideran también la topología Estrella, en la que todos los nodos se conectan a uno central. Aunque en algunos casos se utilice, una configuración de este tipo no se adapta a la filosofía LAN, donde uno de los factores más característicos es la distribución de la capacidad de proceso por toda la Red. En una Red Estrella gran parte de la capacidad de proceso y funcionamiento de la Red estarán concentradas en el nodo central, el cual deberá de ser muy complejo y muy rápido para dar un servicio satisfactorio a todos los nodos.
o Topología en bus
Una Red en forma de Bus o Canal de difusión es un camino de comunicación bidireccional con puntos de terminación bien definidos. Cuando una estación trasmite, la señal se propaga a ambos lados del emisor hacia todas las estaciones conectadas al Bus hasta llegar a las terminaciones del mismo. Así, cuando una estación trasmite su mensaje alcanza a todas las estaciones, por esto el Bus recibe el nombre de canal de difusión.
Otra propiedad interesante es que el Bus actúa como medio pasivo y por lo tanto, en caso de extender la longitud de la red, el mensaje no debe ser regenerado por repetidores (los cuales deben ser muy fiables para mantener el funcionamiento de la red). En este tipo de topología cualquier ruptura en el cable impide la operación normal y es muy difícil de detectar. Por el contrario, el fallo de cualquier nodo no impide que la red siga funcionando normalmente, lo que permite añadir o quitar nodos a la red sin interrumpir su funcionamiento.
Una variación de la topología en Bus es la de árbol, en la cual el Bus se extiende en más de una dirección facilitando el cableado central al que se le añaden varios cables complementarios. La técnica que se emplea para hacer llegar la señal a todos los nodos es utilizar dos frecuencias distintas para recibir y transmitir. Las características descritas para el Bus siguen siendo válidas para el árbol.

o Topología en anillo
Esta se caracteriza por un camino unidireccional cerrado que conecta todos los nodos. Dependiendo del control de acceso al medio, se dan nombres distintos a esta topología: Bucle; se utiliza para designar aquellos anillos en los que el control de acceso está centralizado (una de las estaciones se encarga de controlar el acceso a la red). Anillo; se utiliza cuando el control de acceso está distribuido por toda la red. Como las características de uno y otro tipo de la red son prácticamente las mismas, se utiliza el término anillo para las dos.
En cuanto a fiabilidad, presenta características similares al Bus: la avería de una estación puede aislarse fácilmente, pero una avería en el cable inutiliza la red. Sin embargo, un problema de este tipo es más fácil de localizar, ya que el cable se encuentra físicamente dividido por las estaciones. Las redes de éste tipo, a menudo, se conectan formando topologías físicas distintas al anillo, pero conservando la estructura lógica (camino lógico unidireccional) de éste. Un ejemplo de esto es la topología en anillo/estrella. En esta topología los nodos están unidos físicamente a un conector central (llamado concentrador de cables o centro de cableado) en forma de estrella, aunque se sigue conservando la lógica del anillo (los mensajes pasan por todos los nodos). Cuando uno de los nodos falla, el concentrador aísla el nodo dañado del resto del anillo y permite que continúe el funcionamiento normal de la red. Un concentrador admite del orden de 10 nodos.
Para expandir el anillo, se pueden conectar varios concentradores entre sí formando otro anillo, de forma que los procedimientos de acceso siguen siendo los mismos. Para prevenir fallos en esta configuración se puede utilizar un anillo de protección o respaldo. De esta forma se ve como un anillo, en realidad, proporciona un enlace de comunicaciones muy fiable ya que no sólo se minimiza la posibilidad de fallo, sino que éste queda aislado y localizado (fácil mantenimiento de la red).
El protocolo de acceso al medio debe incluir mecanismos para retirar el paquete de datos de la red una vez llegado a su destino. Resumiendo, una topología en anillo no es excesivamente difícil de instalar, aunque gaste más cable que un Bus, pero el coste de mantenimiento sin puntos centralizadores puede ser intolerable. La combinación estrella/anillo puede proporcionar una topología muy fiable sin el coste exagerado de cable como estrella pura.
o Topología estrella
La topología en estrella se caracteriza por tener todos sus nodos conectados a un controlador central. Todas las transacciones pasan a través del nodo central, siendo éste el encargado de gestionar y controlar todas las comunicaciones. Por este motivo, el fallo de un nodo en particular es fácil de detectar y no daña el resto de la red, pero un fallo en el nodo central desactiva la red completa.
Una forma de evitar un solo controlador central y además aumentar el límite de conexión de nodos, así como una mejor adaptación al entorno, sería utilizar una topología en estrella distribuida. Este tipo de topología está basada en la topología en estrella pero distribuyendo los nodos en varios controladores centrales. El inconveniente de este tipo de topología es que aumenta el número de puntos de mantenimiento.
Tarjeta de Interfaz de Red
Para comunicarse con el resto de la red, cada computadora debe tener instalada una tarjeta de interfaz de red (Network Interface Card, NIC). Se les llama también adaptadores de red o sólo tarjetas de red. En la mayoría de los casos, la tarjeta se adapta en la ranura de expansión de la computadora, aunque algunas son unidades externas que se conectan a ésta a través de un puerto serial o paralelo. Las tarjetas internas casi siempre se utilizan para las PC’s, PS/2 y estaciones de trabajo como las SUN’s. Las tarjetas de interfaz también pueden utilizarse en mini computadoras y mainframes. A menudo se usan cajas externas para Mac’s y para algunas computadoras portátiles.
La tarjeta de interfaz obtiene la información de la PC, la convierte al formato adecuado y la envía a través del cable a otra tarjeta de interfaz de la red local. Esta tarjeta recibe la información, la traduce para que la PC pueda entender y la envía a la PC.
Son ocho las funciones de la NIC:
1. Comunicaciones de host a tarjeta
2. Buffering
3. Formación de paquetes
4. Conversión serial a paralelo
5. Codificación y decodificación
6. Acceso al cable
7. Saludo
8. Transmisión y recepción.
Estos pasos hacen que los datos de la memoria de una computadora pasen a la memoria de otra.

CONCLUSIÓN
Durante las últimas décadas el desarrollo de las computadoras ha venido evolucionando de manera muy rápida, a tal punto que se han venido creado nuevas formas de comunicación, que cada vez son más aceptadas por el mundo actual.
En este trabajo se pudo obtener información sobre los Cables par Trenzado, de las diferentes formas de Redes, entre otros aspectos que en la actualidad son muy utilizados no tan solo en el medio de las computadoras sino en el mundo de las telecomunicaciones que de una forma u otra a facilitado nuestras formas de vida solamente en el aspecto profesional; facilitándonos nuestros trabajos, sino en el aspecto cultural , ya que gracias a estos podemos enriquecer nuestra cultura permitiéndonos evolucionar cada vez mas.
Además de permitir la comunicación no solo desde un mismo salón sino alrededor del mundo, es decir, que no es estrictamente necesario tener dos o mas computadoras cercas para comunicarse y acceder a la información que estas posean estas pueden estar en punto distantes el uno del otro y se tiene la misma comunicación y la accesibilidad a la información deseada.

Poradmin

APLICACIÓN DE LOS ALGORITMOS

La diferencia sustancial entre un sistema basado en una minicomputadora o gran computadora (mainframe) y una red es la distribución de la capacidad de procesamiento . En el primer caso, se tiene un poderoso procesador central, también denominado “host”, y terminales “bobas” que funcionan como entrada y salida de datos pero son incapaces de procesar información o de funcionar por cuenta propia. En el segundo caso, los miembros de la red son computadoras que trabajan por cuenta propia salvo cuando necesitan un recurso accesible por red.
Con la proliferación del uso de portátiles y PDAs con capacidades inalámbricas cada vez es mayor la demanda de conexiones a puntos de acceso wireless.
La gran comodidad y ventajas que suponen estas nuevas opciones de conexión han hecho que muchísimos usuarios no se hayan percatado de los peligros a que se exponen (al no haber ya una conexión física) si no adoptan las medidas de seguridad aconsejadas por los expertos.

Algoritmos mas utilizados

• DES
Las siglas DES corresponden a las iniciales de Data Encryption Standard.
Este algoritmo se convirtió en un estándar y se utiliza en gran parte de los sistemas
informáticos que precisan de un cierto grado de protección, a pesar de las restricciones que el gobierno de los Estados Unidos impuso para su comercialización fuera del país.

El algoritmo consiste en un complejo sistema de operaciones matemáticas basado en sustituciones y permutaciones de bits en función de una clave. El conocimiento del algoritmo no permite descifrar la información cifrada; de hecho éste es de dominio público.

El proceso de cifrado trabaja con bloques de 64 bits y una clave de otros 64 bits, siendo 56 de la clave en sí y los restantes 8 de paridad impar para detección de errores. Tras la aplicación de un algoritmo, que efectúa una serie de complejas permutaciones, sustituciones y operaciones lógicas, los 64 bits de información se transforman en otros tantos cifrados. Dividiendo la información en bloques de este tamaño y realizando la misma operación para cada bloque, se consigue cifrar un texto completo.

Seguridad del algoritmo
Cuando el algoritmo DES se presentó existían numerosas dudas sobre si contendría “puertas traseras” que permitiesen al gobierno de los Estados Unidos descifrar todo tipo de comunicaciones. Más tarde se demostró que estas dudas no tenían fundamento; sin embargo, el tamaño de la clave utilizada hace que el algoritmo sea vulnerable y esta situación se agrave más según vaya incrementándose la potencia de los ordenadores y disminuyendo su precio.

La única forma conocida de violar el algoritmo es probar a descifrar la información con todas las posibles claves. Puesto que constan de 56 bits habría que probar con 2E56, es decir, 72.057.594.037.927.936 claves distintas. Suponiendo que se dispone de un ordenador de gran potencia capaz de generar y probar un millón de claves por segundo, se requerirían unos 72.000 millones de segundos lo que, traducido a años, serían 2.285.

Sin embargo, utilizando un superordenador con multitud de procesadores en paralelo se podrían generar todas las claves en tan sólo unas horas, aunque este tipo de ordenadores no está al alcance de cualquiera
RSA
El algoritmo RSA fue desarrollado en los años setenta por Rivest, Shamir y Adleman, de cuyas iniciales toma su nombre, y está basado en el problema de hallar los factores primos de grandes números.

Frente a sus diversas ventajas sobre los sistemas de clave privada presenta el
inconveniente de la carga que supone al sistema, puesto que se basa en operaciones que consumen mucho tiempo de proceso. Además, cada vez el tamaño de los números a emplear debe ser mayor para garantizar la inviolabilidad del sistema debido al incremento en la potencia de cálculo de los ordenadores.

La encriptación RSA es un sistema de encriptación de clave pública, y se trata de una tecnología patentada en los Estados Unidos, por lo que no puede utilizarse sin licencia.

Sin embargo, el algoritmo se hizo público antes de ser adjudicada la patente, lo que dio lugar a que la encriptación RSA pudiera utilizarse en Europa y Asia sin necesidad de pagar royalties. La encriptación RSA está creciendo en popularidad, y se considera bastante segura frente a ataques de fuerza bruta.

La seguridad del algoritmo radica en el tamaño de un número n, que es el producto de los números primos. No es aconsejable trabajar con valores inferiores a 154 dígitos o lo que es lo mismo 512 bits y para aplicaciones que requieran un alto grado de seguridad 1024 bits (308 dígitos) ó incluso 2048.
TIPOS DE REDES:
Por la relación que hay entre sus miembros, las redes se subdividen en dos grandes grupos: las redes con servidor y las entre pares.

En una “red basada en un servidor” (server-based), los recursos a compartir se centralizan en una máquina denominada “servidor “(server). Las demás máquinas, denominadas “estaciones de trabajo” (workstations), sólo pueden usar recursos propios o del server. A su vez, las redes basadas en servidor, aceptan dos subclases: con servidor “dedicado” o “no dedicado”. En el segundo, la máquina que funciona como servidor, lo hace también como estación de trabajo.
En una “red entre pares “(peer-to-peer) cualquier estación puede ofrecer recursos para compartir. Las que no ofrecen recursos se llaman “clientes” (client) y las que lo hacen “anfitrión/cliente” (host/client).

Las ventajas y desventajas de un tipo de red frente al otro, son los derivados de la centralización de recursos. En general, las redes importantes tienden a ser basadas en servidores dedicados, los que presentan las siguientes ventajas:

Un servidor dedicado tiene más capacidad de trabajo que una máquina que opera además como estación. ofrece más seguridad contra accesos no autorizados tener la información centralizada que distribuída.

Las redes que ofrecen mayor seguridad contra pérdidas accidentales de información trabajan con servidores dedicados. en las redes importantes, hay un “supervisor o administador del sistema” cuyas tareas se facilitan mucho si la red está centralizada.

Es más práctico para hacer actualizaciones de programas y copias de respaldo la centralización de archivos.

Cuando una estación de una red entre pares ofrece recursos para compartir, le queda menos memoria libre que cuando sólo usa los de otras estaciones. La diferencia puede ser tal que no se pueda cargar el programa de aplicación que debería ejecutarse en la estación. no se corre el riesgo de que una estación que se cuelgue, cuelgue el sistema. las redes en las que hay terminales corriendo sistemas operativos diferentes, tienen servidores dedicados.

Las redes entre pares suelen presentar las siguientes ventajas:
Sistema operativo de menor costo. El sistema de impresoras es descentralizado, lo que evita la disyuntiva entre imprimir todo en el server (y caminar hasta él a buscar el trabajo) y dotar a cada estación de trabajo de una impresora (solución cara). Es mucho más fácil reconfigurar este tipo de sistemas.
Si bien las diferencias entre ambas son notables, en la práctica tienden a disminuir pues cada una de ellas toma características de la otra. En efecto, hay productos que permiten que en sistemas con servidores, algunas estaciones puedan compartir sus impresoras. NetWare lo incorpora a partir de la versión 2.15 Update con el nombre de PSERVER. También es posible tener más de un servidor en la red. Por otra parte, a medida que se le agregan máquinas a una red entre pares, surge sóla la idea de ir dejando alguna dedicada a servir la red, con lo que aunque el sistema operativo sea entre pares, funcionaría como una red basada en server. Otro punto a tener en cuenta es que a medida que se agregan estaciones a la red, aparecen nuevos usuarios y se llega a un punto en el que un administrador del sistema es imprescindible.

VENTAJAS Y DESVENTAJAS
Las principales ventajas que presentan las redes de este tipo son su libertad de movimientos, sencillez en la reubicación de terminales y la rapidez consecuente de instalación. La solución inalámbrica resuelve la instalación de una red en aquellos lugares donde el cableado resulta inviable, por ejemplo en edificios históricos o en grandes naves industriales, donde la realización de canaletas para cableado podría dificultar el paso de transportes, así como en situaciones que impliquen una gran movilidad de los terminales del usuario o la necesidad de disponer de vías alternativas por motivos de seguridad.
Los inconvenientes que tienen las redes de este tipo se derivan fundamentalmente de encontrarnos en un periodo transitorio de introducción, donde faltan estándares, hay dudas que algunos sistemas pueden llegar a afectar a la salud de los usuarios, no está clara la obtención de licencias para las que utilizan el espectro radioeléctrico y son muy pocas las que presentan compatibilidad con los estándares de las redes fijas.

Restricciones

Las restricciones que se pueden encontrar durante la implementación de las técnicas algorítmicas pueden afectar tanto a: el tiempo de solución empleado, como a la cantidad de memoria consumida, entre otros.

El tiempo de solución empleado se ve afectado por la velocidad del procesador con el cual se esté trabajando, mientras más rápido sea éste, mejor será el tiempo de solución de la instancia tratada. Sin embargo, existe otro factor que también influye en este aspecto, y éste es el hecho de que se encuentren programas en ejecución al mismo tiempo que se corre la instancia. Por eso es recomendable trabajar sin ningún programa residente en memoria.

La memoria consumida depende del tamaño de la instancia y del número de variables que esta genere. Estos dos factores determinan una limitante para la instancia, si tienden a consumir mucha memoria principal entonces se necesitará contar con suficiente memoria para resolverlos, de lo contrario será imposible.

En conclusión, es posible que las limitantes básicas sean referentes al equipo de trabajo y al tiempo requerido para la solución. Para solucionar estas restricciones se recomienda emplear equipos más potentes.

Justificación

Las bases de datos de hoy en día y las redes computacionales luchan por la necesidad de contar con una mejor distribución de sus recursos. La información es el recurso más importante de ambos, por eso es necesario involucrarle cierto grado de interés. Mientras mejor esté distribuida la información, más fácil y eficiente será su acceso. El Modelo FURD y trata de encontrar la mejor ubicación de los datos de acuerdos a las características de los sitios que posee una red, basándose para ello en la fragmentación inicial de datos y en la posterior ubicación de fragmentos.

Además de lo mencionado anteriormente, también se incluye el deseo de ampliar los conocimientos existentes sobre técnicas algorítmicas que dan solución al Modelo FURD, tratando de proporcionar con este proyecto nuevos resultados que pudieran ser relevantes al área.

CONCLUSIÓN

Las redes tienen una finalidad concreta: transferir e intercambiar datos entre ordenadores y terminales.
Las redes de ordenadores presentan varias ventajas importantes de cara a los usuarios, ya sean empresas o particulares.

Las organizaciones modernas suelen estar bastante dispersas, y a veces incluyen empresas distribuidas en varios puntos de un país o extendidas por todo el mundo.
Las redes pueden resolver también un problema de especial importancia: la tolerancia ante fallos. En caso de que un ordenador falle, otro puede asumir sus funciones y su carga de trabajo, algo de particular importancia en los sistemas de control de trafico aéreo.

BIBLIOGRAFÍA
• “Contemporary Cryptology. The Science of Information Integrity”, Gustavus J. Simmons (Editor), IEEE Press. 1992.
• “Security Mechanisms for Computer Networks”, Sead Muftic, Ed. John Wiley & Sons, 1984.
• “Information Processing Systems. OSI Reference Model – Part 2: Security Architecture”, ISO/IEC IS 7498-2, Jul. 1988.