1000 resultados para Graficos por computador


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A transição entre a versão 4 para a versão 6 do Internet Protocol (IP) vem ocorrendo na comunidade da Internet. No entanto, a estrutura interna dos protocolos IPv4 e IPv6, em detalhe no tamanho dos seus cabeçalhos, pode provocar alterações no perfil tráfego da rede. Este trabalho estuda as mudanças nas características de tráfego de rede, avaliando o que mudaria se o tráfego gerado fosse apenas IPv6 em vez de IPv4. Este artigo estende-se uma pesquisa anterior, abordando novas questões, mas usando os registos de dados reais disponíveis publicamente. É adotada uma metodologia de engenharia reversa nos pacotes IPv4 capturados, permitindo assim inferir qual a carga original no computador tributário e em seguida reencapsular essa carga em novos pacotes usando restrições de encapsulamento IPv6. Conclui-se que, na transição de IPv4 para IPv6, haverá um aumento no número de pacotes transmitidos na Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Teoría de la Computabilidad estudia los límites teóricos de los sistemas computacionales. Uno de sus objetivos centrales consiste en clasificar los problemas en computables e incomputables, donde llamamos computable a un problema si admite solución informática. Para desarrollar estos resultados el modelo abstracto de computador más utilizado históricamente es la Máquina de Turing. Los estudiantes de Ingeniería Informática pueden percibir cierta lejanía entre el modelo teórico y los computadores reales por lo que es más adecuado utilizar un modelo más cercano a la programación como son los programas-while. Los Programas-while permiten resolver los mismos problemas que las máquinas de Turing, pero en cambio son mucho más sencillos de utilizar, sobre todo para personas que tienen una experiencia previa en la informática real, pues toman la forma de lenguaje imperativo clásico. Este texto además utiliza los Programas-while aprovechando sus ventajas y reformulándolos de manera que la computación quede definida en términos de manipulación de símbolos arbitrarios, algo que está mucho más en concordancia con la realidad informática. Además de explicar en detalle qué son los programas while y cómo se utilizan, se justifica por qué no es necesario incorporar otras instrucciones o tipos de datos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día el software de libre distribución está tomando mucha aceptación a nivel mundial, y los servicios asociados a este tipo de productos cada día van en aumento, en especial aquellos productos o utilitarios de oficina que son sencillos de utilizar y que no requieren de un gran esfuerzo para ponerlos en funcionamiento. Entre los paquetes de software de libre distribución también existen sistemas especializados tales como sistemas de gestión financiera, sistemas CRM (administración de las relaciones con los clientes), entre otros, sin embargo, este tipo de sistemas requieren un trabajo técnico para ponerlos en funcionamiento, que usualmente son servicios ofertados por empresas especializadas. En el Ecuador existen muchos paquetes informáticos disponibles en el mercado, pero al momento existen únicamente unas pocas empresas que ofrecen servicios de implementación sobre software de libre distribución, por lo que el objetivo de este trabajo es el de descubrir la factibilidad de la comercialización de servicios de implementación sobre software de libre distribución en la ciudad de Quito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo de Tesis, se enfoca en las nuevas tecnologías utilizadas por las empresas de telecomunicaciones para proveer el servicio de tráfico internacional, haciendo énfasis en los switches de nueva generación (Softswitch), sus potencialidades y la forma de registrar la información detallada de las llamadas telefónicas internacionales CDRs, que son el insumo más importante para el análisis del comportamiento del tráfico telefónico internacional a nivel de Operadores internacionales, rutas de interconexión física e IPs utilizadas para la conexión lógica; entre otras. Se hace también un análisis de la información contenida en un CDR, información que permite determinar el comportamiento del tráfico, y es utilizada a demás para la facturación a los clientes finales y para realizar el proceso de compensación con los operadores internacionales, y para el control de Fraude. Finalmente se hace un estudio de la metodología para desarrollo de software basada en prototipos, la cual es empleada para realizar la implementación de un prototipo informático que permite realizar el análisis de tráfico, y la determinación de posibles indicios de fraude que pueda estar presente en la Red de Telefonía Fija. Para el desarrollo del prototipo se definen las características de un sistema informático que permita mantener un control detallado del tráfico que cursa por la red NGN y es registrado en el Softswitch. El producto final del presente trabajo de tesis es un prototipo de software que consta de dos partes, un módulo de Pseudo-Mediación y otro módulo de Análisis de iiiinformación y configuración. El software desarrollado es funcional y de hecho esta en depuración para ser puesto en producción en una empresa de Telecomunicaciones. La experiencia de la realización del prototipo finalmente permite emitir algunas políticas que deben ser tomadas en cuentas por las empresas de telecomunicaciones al momento de tomar la decisión de desarrollar o comprar una herramienta para control de tráfico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis busca definir una alternativa para administrar los proyectos de desarrollo de software basándose en la Teoría de Restricciones del Dr. Eliyahu M. Goldratt y siguiendo los principios de la metodología Ágil Scrum, con el fin de lograr proyectos exitosos que satisfagan a los clientes y sean rentables para la compañía ejecutora. En el capítulo 1 se presenta el marco lógico de la Teoría de Restricciones y los 5 pasos propuestos para implementar un proceso de mejora continua identificado el elemento que limita al sistema y le impide generar los resultados financieros deseados. Se continúa con el análisis de las particularidades de los proyectos de desarrollo de software, las bases que sustentan a las metodologías de Desarrollo Ágil y se estudia en detalle a Scrum. En el capítulo 3 se conjugan las reglas del marco de trabajo Scrum con los lineamientos de la TOC para obtener una guía práctica para administrar los proyectos de desarrollo de software. Se evidencia que el proceso de desarrollo es un sistema con una restricción que lo limita y que se pueden aplicar los 5 pasos propuestos por la TOC para optimizarlo. Además, los argumentos lógicos de la Cadena Crítica, aplicación de la TOC para administrar proyectos, permite asignar amortiguadores en los lugares adecuados de la ruta del proyecto haciendo que el Scrum Master se enfoque en los desfases causados por los inevitables imprevistos. En el capítulo 4 se analizan las convenciones de la contabilidad de Throughput para definir indicadores de operación y de resultados que nos permitan monitorear y controlar los avances de los proyectos, determinar su éxito y poder comparar las continuas mejoras conseguidas con la aplicación de la TOC y Scrum. En el último capítulo el lector podrá encontrar la aplicación de la teoría analizada en un proyecto real que ha sido seleccionado para ilustrar de mejor manera el marco de trabajo propuesto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A través de esta investigación se buscó establecer la relación existente entre el aprendizaje y el plan de carrera en una organización real; y lograr una propuesta viable para la empresa y sus empleados sobre estos temas. El estudio está basado en una revisión de aspectos teóricos de forma bibliografía, y se incorporó la revisión de entrevistas, encuestas y observación para el análisis de la situación actual y deseada. Al realizar el estudio se determinaron tres apoyos importantes que sirven a la empresa para la obtención de sus objetivos estratégicos, los cuales son competencias, conocimientos y planes de carrera. El resultado fue las propuestas de gestión por competencias, gestión del conocimiento y planes de carrera, alineadas a la propuesta de planificación estratégica para la empresa Structured Intelligente del Ecuador S.A. Concluyendo que el aprendizaje incide directamente sobre los planes de carrera.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma linguagem orientada ao problema de projeto estrutural de edifícios e a correspondente estrutura de armazenamento de dados são apresentados, como núcleo principal do sistema PROADE. Objetiva-se assim permitir ao engenheiro estrutural descrever o problema em termos correntes de Engenharia, organizandose os dados recebidos para posterior análise e dimensionamento da estrutura. São discutidos o problema PROADE e os dados correspondentes, seguidos pela descrição das estruturas de armazenamento de dados do sistema. A seguir, define-se a linguagem PROADE e finalmente apresenta-se a organização do sistema PROADE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por que não aprendem certas crianças? Este é um estudo exploratório, no qual buscam-se respostas a esta interrogação. O problema de aprendizagem é baseado no domínio da Psicologia do Desenvolvimento. Para abordá-lo, demonstra-se o interesse na utilização do referencial piagetiano, o ambiente informático e a linguagem LOGO de programação. Desse referencial "cognitivo", surge outra dimensão, a da "afetividade". Do histórico da interrelação entre ambos na teoria piagetiana, surge a psicanálise como disciplina que poderia contribuir. Fundamenta-se a utilização desta útlima em pesquisa, relacionando, ainda, hipóteses que a psicanálise possui sobre o desenvolvimento e seus distúrbios. Escolhemos o estudo de caso como delineamento metodológico desta investigação. Nos resultados, destacam-se situações em que interfiriam elementos "afetivos" a ele vinculados. Verificou-se que o computador oferece possibilidades e recursos específicos para essa expressão, que, combinados com a necessidade do raciocínio para sua utilização, permitiram aos sujeitos a superação das situações que intreferiam no seu desenvolvimento. Conclui-se pelo interesse no prosseguimento da investigação, no ambiente informatizado, desta zona de fronteira entre a "cognição" e o "afeto".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivos: Testar a hipótese de que a mucosa do intestino delgado proximal de crianças com diarréia persistente apresenta alterações morfométricas e estereológicas proporcionais ao estado nutricional. Métodos: estudo transversal, incluindo 65 pacientes pediátricos internados no período de maio de 1989 a novembro de 1991, com idade entre 4 meses e 5 anos , com diarréia de mais de 14 dias de duração, que necessitaram realizar biópsia de intestino delgado como parte do protocolo de investigação. A avaliação nutricional foi realizada pelos métodos de Gomez, Waterlow e pelos escores z para peso/ idade (P/I), peso/estatura (P/E) e estatura/idade (E/I), divididos em: eutróficos = z ≥ 2 DP e desnutridos z < -2dp; eutróficos = z ≥ 2 DP, risco nutricional = z < -1DP e desnutridos = z < -2DP; e de maneira contínua em ordem decrescente, utilizando-se as tabelas do NCHS. A captura e análise das imagens por programa de computador foi efetuada com o auxílio do patologista. Nos fragmentos de mucosa do intestino delgado, foram medidas a altura dos vilos, a profundidade das criptas, a espessura da mucosa, a espessura total da mucosa e a relação vilo/cripta, com aumento de 100 vezes. Com aumento de 500 vezes, foram medidas a altura do enterócito, a altura do núcleo e do bordo em escova. O programa computadorizado utilizado foi o Scion Image. A análise estereológica, foi feita com o uso de arcos ciclóides. Resultados: Para os escores z P/I, P/E e E/I, divididos em duas categorias de estado nutricional, não houve diferença estatisticamente significante quanto às medidas da altura dos vilos, profundidade das criptas, espessura da mucosa, espessura total da mucosa e relação vilo/cripta. A altura do enterócito foi a característica que apresentou maior diferença entre os grupos eutrófico e desnutrido, para os índices P/I e P/E, em 500 aumentos, sem atingir significância estatística. Quando os escores z foram divididos em 3 categorias de estado nutricional, a análise morfométrica digitalizada mostrou diferença estatisticamente significante para a relação vilo/cripta entre eutróficos e desnutridos leves e entre eutróficos e desnutridos moderados e graves (p=0,048). A relação vilo/cripta foi maior nos eutróficos. A avaliação nutricional pelos critérios de Waterlow e a análise estereológica não mostraram associação com o estado nutricional. Pelo método de Gomez, houve diferença estatisticamente significante para a altura do enterócito entre eutróficos e desnutridos de Grau III: quanto maior o grau de desnutrição, menor a altura do enterócito (r= -.3330; p = 0,005). As variáveis altura do enterócito, altura do núcleo do enterócito e do bordo em escova apresentaram uma clara associação com os índices P/I (r=0,25;p=0,038), P/E (r=0,029;p=0,019) e com o critério de avaliação nutricional de Gomez (r=-0,33;p=0,007), quando foram avaliadas pelo coeficiente de correlação de Pearson. A altura do núcleo mostrou associação com o índice P/I (r=0,24;p=0,054). A altura do bordo em escova mostrou associação com o índice P/I (r=0,26;p=0,032) e a avaliação nutricional de Gomez (r=-0,28;p=0,020). Conclusões: As associações encontradas entre o estado nutricional - avaliado de acordo com Gomez e os índices P/I e P/E - e as variáveis da mucosa do intestino delgado mostraram relação com o peso dos pacientes. Embora estas associações tenham sido de magnitude fraca a moderada, há uma tendência à diminuição do tamanho do enterócito, seu núcleo e seu bordo em escova à medida que aumenta o grau de desnutrição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa aconteceu a partir de uma lista de discussão, em rede telemática, entre professores da 4ª série do ensino fundamental de três escolas da região central do Estado do Rio Grande do Sul. Neste espaço de interação virtual, tínhamos como objetivo estudar como se instituíam as condições para emergência de novos sentidos, possibilitadores de uma dinâmica auto-organizativa do próprio espaço de interação, assim como seus extravasamentos para as práticas em situação pedagógica. Os referenciais teóricos, que deram sustentação a este estudo, encontram seus fundamentos na Epistemologia Genética de Jean Piaget e nas aproximações realizadas pelo próprio autor, com as teorias da complexidade, especialmente a teoria do caos e dos sistemas dinâmicos auto-organizativos. Na análise dos dados coletados no interior da lista, foi possível observar que o próprio espaço de interação telemática (definido pela lista de discussão) tornou-se operador das interações/reflexões dialógicas, entre professores (S x S) e entre suas práticas em situações pedagógicas (S x O). Os movimentos interativos/reflexivos, num misto de encontros/desencontros de idéias e sentidos, instituíram uma zona de interação telemática (zit). Por conseguinte, devido a multiplicidade de pontos de vista e de espaços-tempos visibilizados nesta zit, novos modos de pensar e de agir abriam-se para um campo virtual de possibilidades (Copntinuação) O que estava inicialmente fragmentado, solto, desorganizado, disperso, sem um sentido aparente e com operadores restringindo as aproximações integrativas (característico das condutas α), aos poucos foi conquistando coerência e estabilidade, integrando os desvios e as perturbações nestas novas construções e aproximando os professores de condutas β e γ. Enfim, a zit configurava suas fronteiras provisórias, apenas nas circularidades complexas, nos estados estacionários (aberturas e fechamentos coexistindo), que emergiam no devir das interações/reflexões partilhadas. Novas perspectivas tornaram-se possíveis e o professor podia, então, deslocar-se em relação a si, ao outro (colegas, autores...) e a própria prática, conquistando metapontos de vista. O que, de um determinado lugar, era restritor e limitava as interações/reflexões, de outro, tornava-se objeto tematizado para meta-reflexões. As oscilações acabaram por produzir novas estabilidades em meio às instabilidades, dessa forma instituindo a própria zit como um operador para os processos de emergência e produções de sentidos. Este estudo é, também, uma contribuição ao uso crítico/criativo das novas tecnologias na educação, enquanto possibilitadora de novos sentidos nas transformações político-pedagógicas.