908 resultados para Base de dados e Aplicação Móvel


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior Agrária do Instituto Politécnico de Castelo Branco para cumprimentos dos requisitos necessários à obtenção do grau de Mestre em Sistemas de Informação Geográfica em Recursos Agro-Florestais e Ambientais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tese de mestrado, Bioinformática e Biologia Computacional (Bioinformática), Universidade de Lisboa, Faculdade de Ciências, 2016

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tese de mestrado integrado, Engenharia da Energia e do Ambiente, Universidade de Lisboa, Faculdade de Ciências, 2016

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este relatório descreve as atividades desenvolvidas durante o projeto que realizei no gabinete de sistemas e informação do Município de Mira, com vista à compleição da unidade curricular HCI Project II, do Mestrado em Human Computer Interaction, da Escola Superior de Educação de Coimbra. O projeto consistiu no desenho da interação de uma aplicação móvel a criar para a Câmara Municipal de Mira, que permita apoiar o cidadão na utilização dos percursos pedonais existentes, assim como informar os Munícipes e principalmente os turistas dos acontecimentos e potencialidades do Concelho. A Câmara Municipal, apenas dispõe de uma página web que facilita a divulgação de informações e eventos, no entanto surgiu a necessidade de apoiar com rigor e especialmente a localização do cidadão na utilização dos percursos pedestres. Foi realizado todo o processo de design, onde foram aplicados os princípios e metodologias de HCI, sempre focados no utilizador. Após reunião com as partes intervenientes e depois de se definirem os objetivos do projeto, iniciei a primeira fase de estudo e pesquisa de informação relativa a aplicações existentes relacionadas com o assunto. Na fase seguinte, passei à listagem das necessidades que se pretendiam satisfazer onde se definiram os objetivos. Concluídas estas etapas, passei à fase de análise de utilizadores, onde realizei entrevistas contextuais, enumerei experiências paralelas, criei personas e defini os point of view. Com a recolha desta informação passei à fase de ideação onde criei as design directives. Posteriormente foram definidas as principais funcionalidades, foram criadas storyboards e criei um protótipo de baixa fidelidade que após ter sido validado e ajustado deu origem a um protótipo de alta fidelidade. Este protótipo foi validado, realizei o modelo visual da arquitetura de informação e o modelo da interação (flow) entre ecrãs nas principais funcionalidades. Por fim, após estar concluída a validação do protótipo de alta fidelidade foram enumerados alguns aspetos do que deveriam ser melhorados para facilitar a interação do utilizador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho apresentado no 10º Congresso Nacional de Sismologia e Engenharia Sísmica, 20-22 abril de 2016, Ponta Delgada, Açores, Portugal

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Anualmente 20 a 50 milhões de pessoas sofrem ferimentos em acidentes rodoviários, morrendo 1,24 milhões de pessoas nas estradas de todo o Mundo. A aplicação de medidas para diminuir estes números tornou-se urgente. Na União Europeia foi proposto o objetivo de reduzir 50% da sinistralidade de 2001 até 2010. Em Portugal apontou-se como objetivo a redução de 31,9% de vítimas mortais de 2006 a 2015. Os resultados revelaram que os valores da sinistralidade não ultrapassaram uma redução de 43% na Europa, mas em Portugal estima-se que em 2013 já se tenha alcançado o objetivo previsto para 2015. Em meio urbano, os dados da União Europeia indicam uma redução das vítimas mortais, contudo verifica-se que Portugal se posiciona entre os países com piores valores. Existe, portanto, uma clara necessidade de estabelecer ferramentas que permitam a atuação das entidades gestoras, no sentido de reduzir a sinistralidade ao nível da rede rodoviária urbana. Saber onde ocorreram os acidentes é o início da solução para minimizar feridos e vítimas mortais nas vias urbanas. A aplicação de métodos que permitam a criação de indicadores de sinistralidade associados a um Sistema de Informação Geográfica, permite o conhecimento das vias rodoviárias com necessidades mais urgentes de intervenção de forma gráfica e fácil de interpretar, mesmo por não especialistas. No âmbito deste trabalho, associou-se a base de dados de acidentes a um Sistema de Informação Geográfica para efetuar o processo de georreferenciação e, assim, ser possível conhecer a localização dos trechos da rede urbana mais problemáticos. O conhecimento do tráfego e do perfil transversal das vias urbanas permitiu a definição de uma hierarquização viária. Além disso, utilizou-se esta informação para, de uma forma simplificada, extrapolar os valores de tráfego recolhidos em postos de contagem para as restantes vias onde não existia essa informação. A base de dados de acidentes georreferenciados e o tráfego considerado nas vias permitiram a aplicação do método que se propõe para a análise da sinistralidade, tendo-se utilizado para isso o indicador VHL – valor hierárquico do local. Por fim, foram analisados os trechos fora de interseções que obtiveram piores níveis de segurança, utilizando o indicador de sinistralidade. A metodologia de análise permitiu avaliar os trechos com acidentes, quer considerando os dados de sinistralidade de forma agregada no triénio de análise, quer utilizando-os separadamente para cada um dos anos. Chegou-se assim a uma análise dos acidentes ocorridos em cada trecho, de modo a servir de base para estudos futuros que deverão ser realizados para mitigar os acidentes rodoviários.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho pretende mapear a região do ABC dando ênfase ao processo de desenvolvimento industrial e ao aumento da densidade demográfica decorrente. Isto se dá a partir do estudo quantitativo da mão de obra necessária. que reflete diretamente no emprego. O enfoque será mais acurado nesse aspecto. Num primeiro momento, aborda-se o contexto histórico, análise do processo de urbanização do século passado, que culmina com a instalação das indústrias na região. A abertura econômica do início dos anos 90, a aplicação de novas tecnologias e novas ferramentas de administração também fazem parte desse contexto. Nesse período o processo de industrialização sofre uma reestruturação comprometendo a aptidão regional, a chamada desindustrialização . O foco principal será a indústria automobilista, sem dúvida a de maior importância para e na região. No segundo momento, descreve-se quantitativamente o processo de mudança do comportamento da região e, analisa-se em paralelo, o desemprego e emprego nos setores industrial e de serviços. no período que compreende a última década do século XX , início do XXI. Por fim, mas não de menor importância, busca-se descrever e entender o surgimento das novas aptidões, geradas principalmente pela mudança de alocação das indústrias. Analisando questões como transformação da aptidão regional emprego e desemprego com base nos dados disponibilizados pelas instituições de pesquisa, buscando correlações entre variáveis para enfim, determinar como de fato se encontra hoje o emprego, o trabalhador e principalmente o processo industrial da região.(AU)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No âmbito do Direito à Comunicação, dos Direitos Humanos e da discussão a respeito dos Direitos Autorais sobre obras principalmente literárias e científicas, este trabalho tem como principal objetivo o desenvolvimento e aplicação de uma pesquisa de campo de caráter exploratório. Ele busca estabelecer um mapeamento do uso das práticas de produção e compartilhamento de conteúdo aberto por parte do corpo docente da UMESP, por meio do uso de licenciamento livre do tipo Commons e seguindo os preceitos apregoados pelo movimento dos Recursos Educacionais Abertos (REA). Portanto, o método estatístico utilizado foi o de amostragem probabilística aleatória simples utilizando-se de questionário com perguntas fechadas, possibilitando a elaboração de uma base de dados consistente que foi explorada no intuito de confirmar a hipótese inicialmente formulada, além de contemplar outras inferências não menos interessantes. A principal conclusão apresentada é que, mesmo que não seja de conhecimento da maioria do corpo docente da UMESP sobre o compartilhamento de conteúdo sob licenciamento livre e nem tampouco sobre o movimento REA, não existem restrições significativas quanto à adesão a tais práticas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Administração Financeira surge no início do século XIX juntamente com o movimento de consolidação das grandes empresas e a formação dos mercados nacionais americano enquanto que no Brasil os primeiros estudos ocorrem a partir da segunda metade do século XX. Desde entãoo país conseguiu consolidar alguns centros de excelência em pesquisa, formar grupo significativo de pesquisadores seniores e expandir as áreas de pesquisa no campo, contudo, ainda são poucos os trabalhos que buscam retratar as características da produtividade científica em Finanças. Buscando contribuir para a melhor compreensão do comportamento produtivo dessa área a presente pesquisa estuda sua produção científica, materializada na forma de artigos digitais, publicados em 24 conceituados periódicos nacionais classificados nos estratos Qualis/CAPES A2, B1 e B2 da Área de Administração, Ciências Contábeis e Turismo. Para tanto são aplicadas a Lei de Bradford, Lei do Elitismo de Price e Lei de Lotka. Pela Lei de Bradford são identificadas três zonas de produtividade sendo o núcleo formado por três revistas, estando uma delas classificada no estrato Qualis/CAPES B2, o que evidencia a limitação de um recorte tendo como único critério a classificação Qualis/CAPES. Para a Lei do Elitismo de Price, seja pela contagem direta ou completa, não identificamos comportamento de uma elite semelhante ao apontado pela teoria e que conta com grande número de autores com apenas uma publicação.Aplicando-se o modelo do Poder Inverso Generalizado, calculado por Mínimos Quadrados Ordinários (MQO), verificamos que produtividade dos pesquisadores, quando feita pela contagem direta, se adequa àquela definida pela Lei de Lotka ao nível de α = 0,01 de significância, contudo, pela contagem completa não podemos confirmar a hipótese de homogeneidade das distribuições, além do fato de que nas duas contagens a produtividade analisada pelo parâmetro n é maior que 2 e, portanto, a produtividade do pesquisadores de finanças é menor que a defendida pela teoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A avaliação e monitorização de sinais vitais é uma ferramenta fundamental utilizada na medicina, principalmente no que se relaciona com o estado físico do indivíduo. A evolução constante da tecnologia assumiu um papel central na evolução de produtos ligados ao contexto médico, que atualmente assumem-se como produtos do quotidiano. Existiu também uma alteração do paradigma, ou seja, produtos anteriormente utilizados exclusivamente na medicina, agora usados em atividades diárias. A preocupação da monitorização de sinais vitais é uma temática emergente, uma vez que uma análise correta destes dados permite intervir precocemente em aspetos que melhoram a qualidade de vida do indivíduo. A prevenção tornou-se um fator essencial, visto que os utilizadores interagem com estes produtos no quotidiano. Esta necessidade leva ao aparecimento de novos produtos, que estejam ligados à atividade diária do indivíduo. É neste paradigma que a solução se apresenta, a interação do produto com o utilizador de forma discreta e menos intrusiva, oferecendo maior conforto e funcionalidade. Assim sendo, o designer deve perceber os princípios de funcionamento dos componentes que permitem recolher informação sobre os sinais vitais e ambientais. O papel do design neste projeto de investigação passou pelo desenvolvimento de uma solução para monitorização da dinâmica corporal no período do sono, de forma a contribuir para a prevenção da apneia do sono. A solução divide-se em três elementos, que interligados, proporcionam ao utilizador um controlo do período de sono. Os elementos são: tapete de mapeamento de pressão, um monitor de sono, e uma aplicação móvel. Os aspetos ergonómicos e funcionais foram tidos em conta na conceção do produto assim como a aplicação de métodos de desenvolvimento de produto, com o intuito de obter uma solução que respeite as necessidades do utilizador. A solução foi validada, do ponto de vista conceptual, através de um protótipo semi-funcional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os dispositivos de monitorização de estado de saúde começam a destacar-se no mercado como uma mais-valia na antecipação e precaução de possíveis falhas vitais. Com base na interacção entre o cuidador e o paciente, desenvolveu-se um monitorizador da temperatura corporal minimamente invasivo orientado para as crianças. O projecto foi desenvolvido em parceria com a empresa EDIN. O projecto divide-se em duas etapas. Na primeira etapa foi elaborada uma análise ao problema, onde foi realizado um levantamento da tipologia de produtos comerciais e um inquérito à população, com o objectivo de enumerar alguns dos requisitos do produto a desenvolver. A segunda etapa destinou-se ao desenvolvimento do projecto. Após a validação das especificações resultantes da etapa anterior, procedeu-se à criação de conceitos, através de brainstorming, com o objectivo de seleccionar o modelo final. Posteriormente, o produto foi protótipado e testado pelo públicoalvo e pelos cuidadores, permitindo, através do feedback obtido, efectuar melhorias ao nível do conforto do utilizador. Foi também desenvolvido o protótipo de um interface para uma aplicação móvel, que permite ao cuidador, quer conhecer a temperatura corporal da criança e sua evolução, quer o estado de carga da bateria e autonomia do produto, entre outros. Este projecto apresenta assim um novo produto, capaz de responder às necessidades do consumidor, contribuindo para um aumento da prevenção e diagnóstico do estado de saúde das crianças, com o mínimo de perturbação destas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study aimed to evaluate the microclimate changes surrounding the wind farm Macau Pilot / RN, present in the municipality of the same name. To achieve this goal made use of remote sensing techniques using Landsat - 5 TM and 7 ETM +, from which made it possible evaluation of temperature changes on the surface, this around the park in periods prior to its implementation, to the today. For evaluation of the temperature data that has been generated by applying a template was performed its correlation with field data collection and evaluated the degree of correlation, in order to confirm the validity of the data acquired by satellite. Also held was a characterization of the climate of the region based on the data of this climatological station in Macau. Once collected this data made possible the evaluation of climate change policy in the study region. After validation of the temperature models, an analysis of the generated temperature histograms was performed visually could not identify any significant change. However when analyzing the temperature data at a higher level of detail, a data pattern of behavior was detected for both periods evaluated, yet could not see a distinction between the periods of pre-operation of the park, and post-operation . From this result was levantas hypotheses to explain the behavior of the data, the first of which is the presence of moisture in the soil, and the second to the soil composition. In order to validate the hypotheses were applied PDI techniques, involving a combination of different RGB bands of Landsat 5 and the implementation of Reason bands procedure that might show the elements present on the soil surface.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Indicators and analyses that used the database from SB Brazil 2003 (the most recent nationwide oral health survey) have been criticized as unreliable due to sampling problems. The current study countered that this critique was based solely on statistical concepts, unsupported by empirical evidence. The critique's essentially epistemic approach leads to peremptory reductionism that denies other forms of knowledge and fails to recognize the multidisciplinary nature of epidemiology. The current study retrieves information on the implementation of the oral health survey and its impact on knowledge output in the field. The article draws an analogy between science and art, demonstrating the multifaceted images obtained by both. Thus, recognition of validity requires a full grasp of the field and appropriate use of value criteria. The current article concludes that use of the SB Brazil 2003 database is a reliable and relevant application of epidemiology to oral health.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Indicators and analyses that used the database from SB Brazil 2003 (the most recent nationwide oral health survey) have been criticized as unreliable due to sampling problems. The current study countered that this critique was based solely on statistical concepts, unsupported by empirical evidence. The critique's essentially epistemic approach leads to peremptory reductionism that denies other forms of knowledge and fails to recognize the multidisciplinary nature of epidemiology. The current study retrieves information on the implementation of the oral health survey and its impact on knowledge output in the field. The article draws an analogy between science and art, demonstrating the multifaceted images obtained by both. Thus, recognition of validity requires a full grasp of the field and appropriate use of value criteria. The current article concludes that use of the SB Brazil 2003 database is a reliable and relevant application of epidemiology to oral health.