1000 resultados para Linux (Sistema operativo) -- TFC
Resumo:
El Banco Ecuatoriano de la Vivienda (BEV) constituye una de las principales herramientas que dispone el Estado Ecuatoriano para el desarrollo de sus políticas sociales, desde su creación la gestión del BEV estuvo dirigida a la solución del déficit habitacional en el Ecuador, debido a que es una institución financiera publica y al estar enfrentada a eventos de riesgo que podrían ocasionar la suspensión de sus actividades es necesario mantenga vigentes sus políticas de gestión de riesgos enmarcados dentro de la continuidad de negocios. La Superintendencia de Bancos y Seguros dispuso a través de la Resolución No. 834 de Riesgo Operativo, que las instituciones del sistema financiero implementen planes de continuidad de negocios a fin de garantizar su trabajo en forma permanente y así minimizar las perdidas en casos de interrupción de sus operaciones. El presente trabajo de investigación está enfocado en la aplicación de las mejores prácticas de riesgo operativo y de continuidad de los negocios para la elaboración de una metodología que permita al BEV contar con lineamientos para la estructuración de los planes de contingencia y continuidad de los negocios, que le faculten a la institución el establecer su cadena de valor y sus procesos críticos sobre los cuales deberá desarrollar sus planes de acción. Adicionalmente, se pretende concientizar al Gobierno Corporativo del BEV sobre la importancia de contar con planes de continuidad, para proteger la imagen de la organización y así enfrentar los riesgos que puedan ocasionar la suspensión de sus actividades.
Resumo:
El riesgo operativo en la clasificación de sus distintos tipos de eventos contempla el daño a activos físicos. Las fuentes de estos eventuales daños –entre otras causas- son los eventos naturales. En el Distrito Metropolitano de Quito, las condiciones del clima, microcuencas, relieve y geología dan paso a cuatro susceptibilidades fundamentales en el manejo de riesgos en este espacio geográfico, las cuales son: Movimientos en Masa, Inundaciones, Volcanismo y Sismicidad. El Distrito Metropolitano de Quito tiene una considerable densidad de ubicación de instituciones financieras, las que ven amenazadas sus localizaciones de ejecución de procesos críticos y manejo de información vital. Estas instituciones financieras para la correcta gestión de riesgos provenientes de las variables naturales predominantes en Quito, precisan la medición del riesgo operativo que las mismas conllevan. Para este efecto, se ha configurado una metodología mixta (semi-cuantitativa) para la determinación de la severidad de los riesgos hacia las instituciones financieras en Quito. El componente cualitativo está en el propósito y relevancia de cada localización en el negocio financiero, mientras que la probabilidad de ocurrencia se deriva del procesamiento de los eventos históricos trasladados a una base de datos gráfica. El proceso descrito se apalanca en un Sistema de Información Geográfica, de cuyos resultados se coligen los niveles de riesgos de cada posición de las instituciones financieras, con un enfoque ponderado de sus emplazamientos y el consecuente conocimiento de la afectación sectorial.
Resumo:
En virtud de que el sector público se ha constituido en uno de los motores principales que generan empleo y riqueza a nivel nacional, y que justamente recae sobre los procesos de adquisición, esta investigación está orientada a comprobar los porcentajes de ahorro que se generan con la utilización de esta herramienta. Es importante conocer y determinar si este modelo de negocios implantado es operativo y funcional; si estos procesos establecidos por el Servicio Nacional de Contratación Pública SERCOP, permiten verificar si cumplen con el fin para el cual fueron creados, lo que concebiría con la optimización de recursos y un uso adecuado y racional del gasto público. El Sistema Nacional de Contratación Pública en el caso de Ecuador fue creado con el propósito de optimizar los procesos de compras en el sector público, con la finalidad de generar ahorro en el presupuesto general del Estado. Con estos antecedentes, este estudio tiene como finalidad aportar e identificar si se genera ahorro en los procesos de contratación establecidos por el SERCOP, si se está cumpliendo con los objetivos para el cual fueron creados. Es trascendente señalar que en todo proceso de contratación pública son aplicables varios principios generales, como es el caso de la legalidad, publicidad, de competencia o concurrencia, igualdad y el de participación nacional, elementos fundamentales a ser analizados con el propósito de determinar el ahorro generado al Estado Ecuatoriano. Cabe mencionar que para realizar el análisis respectivo de esta tesis, de acuerdo al tamaño de la muestra se determinó que 67 empresas del sector público sean encuestadas, con el propósito de obtener la información que permita establecer si existe ahorro en el gasto público.
Resumo:
Los modelos de medición de riesgo se han convertido en piezas fundamentales en la administración del riesgo de crédito en las entidades financieras; al respecto, si bien, la normativa de riesgo de crédito expedida por la Superintendencia de Bancos aborda conceptos fundamentales como: pérdida esperada, probabilidad de incumplimiento, nivel de exposición del riesgo de crédito, severidad de la pérdida, tasa de recuperación, y promueve a que las entidades conformen bases de datos para la cuantificación del riesgo de crédito; se observa que dichas disposiciones no han sido suficientes ni entendidas. En este contexto, el presente estudio de investigación contiene un análisis de los lineamientos emanados por el Comité de Supervisión Bancaria de Basilea para la cuantificación del riesgo de crédito; un análisis histórico de la evolución de la cartera de consumo en el sistema bancario ecuatoriano desde el año 2002 hasta diciembre de 2014, así como de los indicadores de morosidad y cobertura. Se realiza un repaso de las disposiciones de la normativa para la gestión del riesgo de crédito, y de la norma de calificación de activos de riesgo en la parte pertinente a la calificación de créditos de consumo; y se analiza y compara con los avances establecidos en la norma de riesgo de crédito, contemplado en el denominado Sistema de Administración de Riesgo de Crédito (SARC) definido por la Superintendencia Financiera de Colombia. Así también, se definen los aspectos mínimos a considerar en la construcción de modelos internos para créditos de consumo, y se enfatiza en el análisis de 15 bancos privados para el cálculo de matrices de transición, a fin de establecer los días a partir del cual el ente de control podría contemplar la definición del default, aspectos que se fundamentan en Anexo 2; se aborda también la importancia que tiene para preservar la solvencia de las entidades, la determinación adecuada no únicamente de las pérdidas esperadas, sino también de las pérdidas inesperadas. Se concluye con un análisis de los lineamientos mínimos que una entidad financiera debe considerar para la construcción de un modelo score sea de aprobación o de comportamiento, basado en las mejores prácticas internacionales, y de fácil entendimiento por parte de la alta gerencia y unidades de riesgos, mismos que se traducen en procedimientos o lineamientos que se sugiere sean acogidas por el ente de control, y están expuestos en Anexos 1, 3, 4 y 5.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
presente trabalho objetiva construir um Modelo Exploratório de desenvolvimento de tecnologia da informação, aplicável no Brasil, tendo como referência as formas de organização do trabalho e da produção das comunidades Linux. O Modelo deve ser aplicado em ambiente Internet, ou em outras redes de telecomunicação. Por essa razão, utiliza métodos e técnicas de aprendizado à distância e e-Iearning. A construção do Modelo apoia-se, como alicerce teórico fundamental, no conceito de convivialidade de Illich (1976), no entendimento de Inose e Pierce (1984) sobre comunidades de interesse e democratização da produção de software, nos estudos de Malone (1997, 1998) referentes a modelos de organização em rede, nos estudos de Weber (2000) sobre comunidades de interesse online, na metodologia de capacitação "Pensamento Digital" de Joia (1999-1, 1999-2) e na estratégia pedagógico-metodológica do Australian National Training Authority (T AFE/SA). No entanto, as pesquisas de Matesco (2000, 2001) tomaram exeqüível a idéia da construção do Modelo, tendo que vista que o Modelo Exploratório proposto aplica-se, preferencialmente, a países, regiões, empresas ou organizações dependentes tecnologicamente de seus parceiros negociais e com escassez de recursos para aplicar em pesquisa e desenvolvimento. O caminho metodológico para a construção do Modelo inicia-se com uma sucinta abordagem sobre o sistema operacional Linux, a descrição das formas de organização das comunidades Linux e a identificação das formas de organização do trabalho e da produção no Fordismo-Taylorismo e no pós-Fordismo. Situa o funcionamento das comunidades Linux em relação a essas formas de organização. Descreve o processo de formação do conhecimento no aprendizado à distância e no elearning. Aborda a experiência de outros países com o Linux e com as comunidades Linux. Principalmente, o sucesso obtido pelos países nórdicos em absorção de tecnologia. A seguir, fundamentando-se em duas pesquisas de Matesco (2000,2001), analisa a dependência tecnológica do Brasil e propõe o Modelo Exploratório, cujo objetivo é, prioritariamente, colaborar para a redução dessa dependência, por meio de um processo de formação de conhecimento, baseado no aprendizado à distância e e-Iearning do Linux e na propagação de comunidades Linux, empregando-se o modelo de organização em rede.
Resumo:
A execução de testes é um passo essencial na adoção de novos protocolos de comunicação e sistemas distribuídos. A forma com que estes se comportam na presença de falhas, tão comuns em ambientes geograficamente distribuídos, deve ser conhecida e considerada. Testes sob condições de falha devem ser realizados e as implementações devem trabalhar dentro de sua especificação nestas condições, garantindo explicitamente o funcionamento dos seus mecanismos de detecção e recuperação de erros. Para a realização de tais testes, uma técnica poderosa é a injeção de falhas. Ferramentas de injeção de falhas permitem ao projetista ou engenheiro de testes medir a eficiência dos mecanismos de um sistema antes que o mesmo seja colocado em operação efetiva. Este trabalho apresenta o projeto, desenvolvimento e teste do injetor de falhas FIRMAMENT. Esta ferramenta executa, dentro do núcleo do sistema operacional, microprogramas, ou faultlets, sobre cada mensagem processada para a emulação de situações de falha de comunicação, utilizando uma abordagem de scripts. A ferramenta é implementada como um módulo de núcleo do sistema operacional Linux, tendo acesso total aos fluxos de entrada e saída de pacotes de forma limpa e não intrusiva, permitindo o teste de sistemas baseados nos protocolos IPv4 e IPv6. Seu desempenho é significativo, já que a ferramenta evita que os mecanismos de injeção de falhas sejam invocados nos fluxos que não sejam de interesse aos testes, bem como dispensa a cópia de dados dos pacotes de comunicação a serem inspecionados e manipulados. A aplicabilidade da ferramenta, dada pela sua facilidade de integração a um ambiente de produção, é conseqüência de sua disponibilidade como um módulo de núcleo, podendo ser carregada como um plugin em um núcleo não modificado. As instruções por FIRMAMENT suportadas lhe dão alto poder de expressão dos cenários de falhas. Estas instruções permitem a inspeção e seleção de mensagens de forma determinística ou estatística. Além disso, fornecem diversas ações a serem realizadas sobre os pacotes de comunicação e sobre as variáveis internas do injetor, fazendo-o imitar o comportamento de falhas reais, como descarte e duplicação de mensagens, atraso na sua entrega e modificação de seu conteúdo. Estas características tornam a ferramenta apropriada para a realização de experimentos sobre protocolos e sistemas distribuídos.
Resumo:
O material apresenta o sistema de arquivos como coleção nomeada de dados e manipulada como unidade. Destaca o papel e características dos sistemas de arquivos como parte integrante do Sistema Operacional e sua importância para a organização e gerenciamento de dados. Por fim, o material apresenta ainda mecanismos de cópia de segurança (backup), recuperação e integridade de um sistema de arquivos; servidores de arquivos e sistemas distribuídos; além de sistemas de arquivos suportados pelo Windows e Linux.
Resumo:
O material apresenta as chamadas de sistema, ou system calls, que são rotinas de serviço oferecidas por um sistema operacional aos programas. Além de escalonar o uso do(s) processador(es) para a execução das instruções dos processos, o Sistema Operacional tem a função de prover serviços a esses processos. O material destaca ainda o código executado pelas chamadas de sistema que reside na memória; a portabilidade dos programas; e os tipos de chamadas de sistema nos sistemas operacionais Microsoft, Unix e Linux.
Resumo:
Este trabalho foi realizado na Universidade da Madeira, no âmbito do Mestrado em Engenharia Informática, tendo como título “Implementação de um sistema autónomo para a geração de visualizações 3D de dados ambientais”. A visualização 3D tem vindo a ganhar terreno em áreas como o entretenimento, medicina, arquitetura e desenho de equipamentos, entre outros. Relativamente à visualização de dados ambientais (oceano e atmosfera) em 3D, esta é uma área pouco explorada. Como tal, foi proposto o estudo e criação de um sistema autónomo capaz de gerar imagens 3D de dados ambientais e disponibilizar as mesmas na web. O estudo iniciou-se com testes às ferramentas que permitem a visualização 3D de dados ambientais, de forma a escolher a que mais se adequa ao sistema a implementar. Após diversos testes às várias ferramentas, a que mais se destacou foi o IDV (Integrated Data Visualization), pelas suas funcionalidades e capacidade de ser executado de forma automática. A implementação do sistema foi efetuada ao longo de diversas etapas: pré-processamento dos dados; escolha das visualizações a disponibilizar na web; escrita do script responsável pelo processo; criação das páginas web para visualização das imagens e implementação de todo o sistema em ambiente Linux. Este sistema foi desenvolvido tendo em conta a adição de novas visualizações, assim como a alteração das visualizações existentes. A possibilidade de adicionar/alterar visualizações de forma simples também foi tida em conta, de forma a não ser necessário reestruturar todo o sistema.
Resumo:
Apresentamos um sistema implementado em Linux® com o intuito de proteger redes contendo estações de trabalho Windows® contra agentes maliciosos. O sistema, denominado LIV - Linux® Integrated Viruswall, agrega características existentes em outras soluções e acrescenta novas funcionalidades. Uma das funcionalidades implementadas é a capacidade de detecção de estações de trabalho contaminadas tendo como base a análise do tráfego de rede. Outra é o uso de uma técnica denominada compartilhamento armadilha para identificar agentes maliciosos em propagação na rede local. Uma vez detectado um foco de contaminação, o LIV é capaz de isolá-lo da rede, contendo a difusão do agente malicioso. Resultados obtidos pelo LIV na proteção de uma rede corporativa demonstram a eficácia da análise do tráfego de rede como instrumento de detecção de agentes maliciosos, especialmente quando comparada a mecanismos tradicionais de detecção, baseados exclusivamente em assinaturas digitais de códigos maliciosos
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA