1000 resultados para Computação forense
Resumo:
Este estudo teve como objetivo verificar até que ponto o processo de descentralização adotado pelo Departamento de Polícia Técnica da Bahia (DPT-BA) foi eficiente no atendimento às demandas de perícias de Computação Forense geradas pelas Coordenadorias Regionais de Polícia Técnica (CRPTs) do interior do Estado. O DPT-BA foi reestruturado obedecendo aos princípios da descentralização administrativa, seguindo a corrente progressista. Assumiu, com a descentralização, o compromisso de coordenar ações para dar autonomia às unidades do interior do Estado, com a criação de estruturas mínimas em todas as esferas envolvidas, com ampla capacidade de articulação entre si e com prestação de serviços voltados para um modelo de organização pública de alto desempenho. Ao abordar a relação existente entre a descentralização e a eficiência no atendimento à demanda de perícias oriundas do interior do estado da Bahia, o estudo, por limitações instrumentais, se manteve adstrito ao campo das perícias de Computação Forense, que reflete e ilustra, de forma expressiva, o cenário ocorrido nas demais áreas periciais. Inicialmente foram identificadas as abordagens teóricas sobre descentralização, evidenciando as distintas dimensões do conceito, e, em seguida, sobre a Computação Forense. Foram realizadas pesquisa documental no Instituto de Criminalística Afrânio Peixoto (Icap) e pesquisa de campo por meio de entrevistas semiestruturadas com juízes de direito lotados nas varas criminais de comarcas relacionadas ao cenário de pesquisa e com peritos criminais das Coordenações Regionais, das CRPTs e da Coordenação de Computação Forense do Icap. Correlacionando os prazos de atendimento que contemplam o conceito de eficiência definido pelos juízes de direito entrevistados, clientes finais do trabalho pericial e os prazos reais obtidos mediante a pesquisa documental os dados revelaram alto grau de ineficiência, morosidade e inadimplência, além de realidades discrepantes entre capital e interior. A análise das entrevistas realizadas com os peritos criminais revelou um cenário de insatisfação e desmotivação generalizadas, com a centralização quase absoluta do poder decisório, demonstrando que o processo de descentralização praticado serviu, paradoxalmente, como uma ferramenta de viabilização e camuflagem da centralização.
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
In this review recent methods developed and applied to solve criminal occurences related to documentoscopy, ballistic and drugs of abuse are discussed. In documentoscopy, aging of ink writings, the sequence of line crossings and counterfeiting of documents are aspects to be solved with reproducible, fast and non-destructive methods. In ballistic, the industries are currently producing ''lead-free'' or ''nontoxic'' handgun ammunitions, so new methods of gunshot residues characterization are being presented. For drugs analysis, easy ambient sonic-spray ionization mass spectrometry (EASI-MS) is shown to provide a relatively simple and selective screening tool to distinguish m-CPP and amphetamines (MDMA) tablets, cocaine and LSD.
Resumo:
RESUMO: Este trabalho é realizado com o objectivo de contribuir para uma melhor compreensão da Esquizofrenia e a sua relação com a criminalidade e a melhor forma de intervir psicológica e socialmente com o intuito de reabilitar o doente mental e reinseri-lo na sociedade, evitando fenómenos de estigma e exclusão social. Sendo este tema muito abrangente e complexo, o que se pretende, de forma descritiva, é abordar noções, segundo uma perspectiva psicológica forense, que permitam a reflexão sobre o estatuto de inimputável e a medida a aplicar a estes sujeitos (criminosos ou doentes mentais?) com características muito peculiares. Torna-se evidente a necessidade de desenvolver esforços no sentido de prevenir e reabilitar clínica e socialmente os indivíduos que sofrem de doença mental e que por razão desta cometeram um crime, nomeadamente através da criação de programas de intervenção adequados à casuística. Nesse sentido, neste trabalho é proposto um modelo de intervenção psicossocial, aqui elaborado sob a forma de programa de intervenção comunitário, tendo como principais objectivos, a reabilitação clínica e a reinserção social do utente na comunidade local, a prevenção da recidiva da doença e a reincidência no crime, a redução do estigma e exclusão social associado à doença mental e a promoção do acesso aos direitos e à igualdade de oportunidades.
Resumo:
Na presente dissertação estuda-se o comportamento mecânico em vigas construídas em materiais compósitos, abordando diferentes teorias de base. Foram desenvolvidos dois elementos Lagrangeanos de viga-barra, baseados na teoria ao corte de primeira ordem e na teoria ao corte de ordem superior, quadráticos e cúbicos, respectivamente. Os modelos foram implementados na aplicação de computação simbólica MAPLE e comparados com soluções alternativas. Foram realizados estudos em análise estática linear e nesse contexto foi estudada a influência da variação dos ângulos de orientação das fibras e do número de camadas de empilhamento do laminado. Foi iniciado um estudo sobre o comportamento de materiais FGM.
Resumo:
Na análise forense de explosivos é comum a tarefa de análise química num cenário de pós-explosão com o objectivo de detectar/identificar resíduos do explosivo usado. A maior dificuldade desta análise está directamente relacionada com os baixos teores de resíduos de explosivos que se encontram. Assim, é necessário que os diferentes passos aos quais as amostras são sujeitas, desde a sua recolha, acondicionamento e transporte, passando pela extracção no laboratório, até serem analisadas, sejam realizados com o maior controlo possível. Todas as tarefas envolvidas em todas as etapas poderão contribuir com erros que afectarão o resultado final. Deste modo, é da maior importância elaborar um programa de controlo da qualidade para que as análises sejam efectuadas de modo correcto, reprodutível e eficaz. Este trabalho consistiu na optimização e validação do desempenho qualitativo de um método de ensaio para detecção e identificação de quinze explosivos orgânicos através de cromatografia líquida de alto desempenho com um detector de ultravioleta-visível (HPLC-UV-Vis). De seguida estabeleceu-se um programa de controlo de qualidade (CQ) para ensaios em rotina, baseado nos resultados obtidos através da validação. Por fim, foi testado o referido programa com análises a diferentes amostras reais. De acordo com os resultados obtidos, o novo método de ensaio desenvolvido demonstrou ser um método mais rápido na análise de explosivos quando comparado com o anterior método. Portanto, é possível concluir que, através de testes estatísticos, ficou provado que o método é adequado para o fim a que se destina, podendo substituir com vantagens o método anteriormente utilizado em ensaios de rotina. Contudo, este método apresenta como principal desvantagem a dificuldade em separar compostos que apresentam isómeros. Esta é uma limitação menor que poderá ser estudada em trabalhos futuros.
Resumo:
Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.
Resumo:
Na atual conjuntura económica, onde a globalização convive com a crise, as empresas confrontam-se com dois indeclináveis desafios, a expansão para novos mercados e a redução dos custos. A inevitabilidade de lidar com uma crescente quantidade de informação, na manutenção dos serviços prestados e na implementação de outros, obriga a uma sofisticada evolução dos meios informáticos. Para evoluir de forma pouco onerosa, é imprescindível a adoção de infraestruturas computacionais ágeis. Neste contexto emergem estratégias sustentadas na adoção do paradigma Computação em Nuvem (CN). Este paradigma sugere infraestruturas virtuais, escaláveis e com gestão automática de recursos, partilhadas no mesmo modelo de negócio. A forma de definir os custos, designada por pay as you go, é baseada no uso. Procurando garantir uma constante adaptação às exigências do negócio, a CN proporciona confiança e qualidade de serviço, reduzindo o risco associado ao lançamento de aplicações e o tempo de resposta. O objetivo deste trabalho é estudar o paradigma CN e perscrutar a sua projeção num futuro próximo, analisando as suas vantagens e inconvenientes. Nesse âmbito, é proposta uma arquitetura para integrar equipamentos de bilhética empregues para, designadamente, vender, validar e fiscalizar títulos de transportes. Para avaliar a arquitetura proposta foi implementado um demonstrador na plataforma Windows Azure.
Resumo:
Em Portugal, as instituições de ensino superior dispõem de plataformas de e-learning que reflectem uma mais-valia para o processo de ensino-aprendizagem. No entanto, estas plataformas caracterizam-se por serem de âmbito privado expondo, desta forma, a tímida abertura das instituições na partilha do seu conhecimento, como também dos seus recursos. O paradigma Cloud Computing surge como uma solução, por exemplo, para a criação de uma federação de nuvens capaz de contemplar soluções heterogéneas, garantindo a interoperabilidade entre as plataformas das várias instituições de ensino, e promovendo os objectivos propostos pelo Processo de Bolonha, nomeadamente no que se refere à partilha de informação, de plataformas e serviços e promoção de projectos comuns. Neste âmbito, é necessário desenvolver ferramentas que permitam aos decisores ponderar as mais-valias deste novo paradigma. Assim, é conveniente quantificar o retorno esperado para o investimento, em recursos humanos e tecnológicos, exigido pelo modelo Cloud Computing. Este trabalho contribui para o estudo da avaliação do retorno do investimento (ROI) em infra-estruturas e serviços TIC (Tecnologias de Informação e Comunicação), resultante da análise de diferentes cenários relativos à introdução do paradigma Cloud Computing. Para tal, foi proposta uma metodologia de análise baseada num questionário, distribuído por diversas instituições de ensino superior portuguesas, contendo um conjunto de questões que permitiram identificar indicadores, e respectivas métricas, a usar na elaboração de modelos de estimação do ROI.
Resumo:
Este trabalho é uma parte do tema global “Suporte à Computação Paralela e Distribuída em Java”, também tema da tese de Daniel Barciela no mestrado de Engenharia Informática do Instituto Superior de Engenharia do Porto. O seu objetivo principal consiste na definição/criação da interface com o programador, assim como também abrange a forma como os nós comunicam e cooperam entre si para a execução de determinadas tarefas, de modo a atingirem um único objetivo global. No âmbito desta dissertação foi realizado um estudo prévio relativamente aos modelos teóricos referentes à computação paralela, assim como também foram analisadas linguagens e frameworks que fornecem suporte a este mesmo tipo de computação. Este estudo teve como principal objetivo a análise da forma como estes modelos e linguagens permitem ao programador expressar o processamento paralelo no desenvolvimento das aplicações. Como resultado desta dissertação surgiu a framework denominada Distributed Parallel Framework for Java (DPF4j), cujo objetivo principal é fornecer aos programadores o suporte para o desenvolvimento de aplicações paralelas e distribuídas. Esta framework foi desenvolvida na linguagem Java. Esta dissertação contempla a parte referente à interface de programação e a toda a comunicação entre nós cooperantes da framework DPF4j. Por fim, foi demonstrado através dos testes realizados que a DPF4j, apesar de ser ainda um protótipo, já demonstra ter uma performance superior a outras frameworks e linguagens que possuem os mesmos objetivos.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Nos últimos anos começaram a ser vulgares os computadores dotados de multiprocessadores e multi-cores. De modo a aproveitar eficientemente as novas características desse hardware começaram a surgir ferramentas para facilitar o desenvolvimento de software paralelo, através de linguagens e frameworks, adaptadas a diferentes linguagens. Com a grande difusão de redes de alta velocidade, tal como Gigabit Ethernet e a última geração de redes Wi-Fi, abre-se a oportunidade de, além de paralelizar o processamento entre processadores e cores, poder em simultâneo paralelizá-lo entre máquinas diferentes. Ao modelo que permite paralelizar processamento localmente e em simultâneo distribuí-lo para máquinas que também têm capacidade de o paralelizar, chamou-se “modelo paralelo distribuído”. Nesta dissertação foram analisadas técnicas e ferramentas utilizadas para fazer programação paralela e o trabalho que está feito dentro da área de programação paralela e distribuída. Tendo estes dois factores em consideração foi proposta uma framework que tenta aplicar a simplicidade da programação paralela ao conceito paralelo distribuído. A proposta baseia-se na disponibilização de uma framework em Java com uma interface de programação simples, de fácil aprendizagem e legibilidade que, de forma transparente, é capaz de paralelizar e distribuir o processamento. Apesar de simples, existiu um esforço para a tornar configurável de forma a adaptar-se ao máximo de situações possível. Nesta dissertação serão exploradas especialmente as questões relativas à execução e distribuição de trabalho, e a forma como o código é enviado de forma automática pela rede, para outros nós cooperantes, evitando assim a instalação manual das aplicações em todos os nós da rede. Para confirmar a validade deste conceito e das ideias defendidas nesta dissertação foi implementada esta framework à qual se chamou DPF4j (Distributed Parallel Framework for JAVA) e foram feitos testes e retiradas métricas para verificar a existência de ganhos de performance em relação às soluções já existentes.