64 resultados para Criptografia de dados (Computação)
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
A dissertação procura mapear a produção de arte e vídeo que tocam questões relativas à interatividade, às novas tecnologias e à participação do espectador para a construção da obra. Parte da noção de rizoma, onde a obra é colocada em um contexto de rede, que atua se relacionando não somente com seus elementos, mas com toda uma história da produção videográfica
Resumo:
Este trabalho pretende contribuir para o entendimento sobre a produtividade na agricultura brasileira, bem como propõe uma reflexão sobre o debate da produtividade total dos fatores. Para isso, buscou-se, antes de tudo, debater as medidas de produtividade, sobretudo as medidas de produtividade total dos fatores e, em seguida, apresentar estimativas da produtividade total na agricultura no Brasil e no mundo. Propõem-se também uma estimativa preliminar dessa metodologia para o cálculo da produtividade total dos fatores na cultura do milho através do índice de Tornqvist. O objetivo é, então, revisar a literatura teórica e empírica sobre a produtividade total dos fatores na agricultura e calcular as produtividades parciais e totais na cultura do milho para os estados brasileiros. Apesar da maior parte dos resultados encontrados no cálculo da produtividade total para a cultura do milho no Brasil não terem sido consistentes, a conclusão geral do levantamento bibliográfico foi que tanto a agricultura brasileira quanto a agricultura mundial, independente da metodologia utilizada, apresentou uma tendência ao crescimento da produtividade total dos fatores.
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Utilização de métodos de comparação de sequências para a detecção de genes taxonomicamente restritos
Resumo:
Desde a década de 1990, os esforços internacionais para a obtenção de genomas completos levaram à determinação do genoma de inúmeros organismos. Isto, aliado ao grande avanço da computação, tem permitido o uso de abordagens inovadoras no estudo da estrutura, organização e evolução dos genomas e na predição e classificação funcional de genes. Entre os métodos mais comumente empregados nestas análises está a busca por similaridades entre sequências biológicas. Análises comparativas entre genomas completamente sequenciados indicam que cada grupo taxonômico estudado até o momento contém de 10 a 20% de genes sem homólogos reconhecíveis em outras espécies. Acredita-se que estes genes taxonomicamente restritos (TRGs) tenham um papel importante na adaptação a nichos ecológicos particulares, podendo estar envolvidos em importantes processos evolutivos. Entretanto, seu reconhecimento não é simples, sendo necessário distingui-los de ORFs não-funcionais espúrias e/ou artefatos derivados dos processos de anotação gênica. Além disso, genes espécie- ou gêneroespecíficos podem representar uma oportunidade para o desenvolvimento de métodos de identificação e/ou tipagem, tarefa relativamente complicada no caso dos procariotos, onde o método padrão-ouro na atualidade envolve a análise de um grupo de vários genes (MultiLocus Sequence Typing MLST). Neste trabalho utilizamos dados produzidos através de análises comparativas de genomas e de sequências para identificar e caracterizar genes espécie- e gênero-específicos, os quais possam auxiliar no desenvolvimento de novos métodos para identificação e/ou tipagem, além de poderem lançar luz em importantes processos evolutivos (tais como a perda e ou origem de genes em linhagens particulares, bem como a expansão de famílias de genes em linhagens específicas) nos organismos estudados.
Resumo:
efeitos são frequentemente observados na morbidade e mortalidade por doenças respiratórias e cardiovasculares, câncer de pulmão, diminuição da função respiratória, absenteísmo escolar e problemas relacionados com a gravidez. Estudos também sugerem que os grupos mais suscetíveis são as crianças e os idosos. Esta tese apresenta estudos sobre o efeito da poluição do ar na saúde na saúde na cidade do Rio de Janeiro e aborda aspectos metodológicos sobre a análise de dados e imputação de dados faltantes em séries temporais epidemiológicas. A análise de séries temporais foi usada para estimar o efeito da poluição do ar na mortalidade de pessoas idosas por câncer de pulmão com dados dos anos 2000 e 2001. Este estudo teve como objetivo avaliar se a poluição do ar está associada com antecipação de óbitos de pessoas que já fazem parte de uma população de risco. Outro estudo foi realizado para avaliar o efeito da poluição do ar no baixo peso ao nascer de nascimentos a termo. O desenho deste estudo foi o de corte transversal usando os dados disponíveis no ano de 2002. Em ambos os estudos foram estimados efeitos moderados da poluição do ar. Aspectos metodológicos dos estudos epidemiológicos da poluição do ar na saúde também são abordados na tese. Um método para imputação de dados faltantes é proposto e implementado numa biblioteca para o aplicativo R. A metodologia de imputação é avaliada e comparada com outros métodos frequentemente usados para imputação de séries temporais de concentrações de poluentes atmosféricos por meio de técnicas de simulação. O método proposto apresentou desempenho superior aos tradicionalmente utilizados. Também é realizada uma breve revisão da metodologia usada nos estudos de séries temporais sobre os efeitos da poluição do ar na saúde. Os tópicos abordados na revisão estão implementados numa biblioteca para a análise de dados de séries temporais epidemiológicas no aplicativo estatístico R. O uso da biblioteca é exemplificado com dados de internações hospitalares de crianças por doenças respiratórias no Rio de Janeiro. Os estudos de cunho metodológico foram desenvolvidos no âmbito do estudo multicêntrico para avaliação dos efeitos da poluição do ar na América Latina o Projeto ESCALA.
Resumo:
A doença de Alzheimer (DA) afeta mais de um milhão de habitantes no Brasil com grande impacto tanto na saúde como social e financeiro. O uso adequado de medicamentos e os programas de cuidado integrado são recomendados como as melhores práticas nesta doença. Em 2002, o Ministério da Saúde criou o Programa de Assistência Farmacêutica aos Portadores de doença de Alzheimer que garante aos portadores desta patologia acesso à avaliação por especialistas e tratamento medicamentoso de alto custo. Mas, para um melhor planejamento das ações relacionadas ao programa, é importante entender os padrões de morbi-mortalidade da população alvo, qualidade da assistência oferecida e o seu impacto. Com foco nesse cenário, esta tese teve como objetivo o estudo da adesão, mortalidade e sobrevida em uma população portadora de doença de Alzheimer assistida nesse programa de assistência farmacêutica. Para apresentação dessa pesquisa, dividiram-se os resultados em três artigos. No primeiro artigo, o objetivo foi avaliar a viabilidade de se utilizar as informações de reabastecimento de receitas coletadas por esse programa na construção de medidas de adesão, uma metodologia já explorada na literatura internacional, mas com experiência limitada no Brasil. Os dados foram acessados nos formulários de Autorização de Procedimentos de Alto Custo (APAC) armazenados na base de dados do programa de acesso de medicamentos excepcionais do Sistema de Informação Ambulatorial (SIA). Como resultado, foram criadas várias medidas de adesão com potencial aplicação no campo da farmacoepidemiologia e planejamento em saúde. No segundo artigo, o foco foi entender que fatores individuais, terapêuticos ou relacionados à assistência, poderiam estar relacionados com um aumento do risco de abandono do programa. Fatores como o sexo feminino, o número de comorbidades na APAC, o tipo de inibidor de colinesterase iniciado e a irregularidade nos reabastecimentos foram associados a um maior risco de abandono do programa. No terceiro artigo, pelas técnicas de relacionamento probabilístico de base de dados, agregaram-se os dados presentes no Sistema de Informação sobre Mortalidade (SIM) para avaliação dos padrões de mortalidade desta patologia. Cerca de 40% dos pacientes foram a óbito durante todo o período de seguimento e principal causa básica de mortalidade foi a doença de Alzheimer (19%). Idade mais avançada e sexo masculino foram as únicas variáveis associadas com uma menor sobrevida. A persistência no programa em seis meses e os diferentes níveis de adesão, medidos pela proporção de posse da medicação, não mostraram associação com a sobrevida. Conclui-se que os dados disponíveis nas bases possibilitaram a investigação do padrão de mortalidade e utilização de um programa de assistência na doença de Alzheimer. E, a possibilidade de analisar grandes populações, em caráter contínuo, com medidas objetivas e com um custo relativamente baixo suplanta o caráter limitado das informações individuais e da doença. Políticas que suportem o aumento na disponibilidade, qualidade e escopo da informação e o avanço nas metodologias de pesquisa em bases de dados devem ser uma prioridade da saúde, pois contribuem com a criação de informações relevantes para um uso racional de recursos e melhora nas práticas de cuidado.
Resumo:
Neste trabalho aplicamos métodos espectrais para a determinação da configuração inicial de três espaços-tempos contendo buracos negros. Para isto apresentamos primeiro a foliação do espaço-tempo em hipersuperfícies tridimensionais espaciais parametrizadas pela função temporal t. Este processo é chamado de decomposição 3+1 [2] [5]. O resultado deste processo são dois conjuntos de equações classificadas em equações de vínculo e evolução [4]. As equações de vínculo podem ser divididas em vínculos Hamiltoniano e dos momentos. Para a obtenção dos dados iniciais dos problemas estudados aqui, apenas a equação de vínculo Hamiltoniano será resolvida numericamente, pois as equações de vínculo dos momentos possuem solução analítica nestes casos. Uma pequena descrição dos métodos espectrais é apresentada, destacando-se os método de Galerkin, método pseudoespectral ou de colocação e método de Tau, que são empregados na resolução das equações de vínculo Hamiltoniano dos problemas estudados. Verificamos que os resultados obtidos neste trabalho superam aqueles produzidos por Kidder e Finn [15], devido a uma escolha diferente das funções de base, que aqui satisfazem uma das condições de contorno.
Resumo:
principalmente pelo baixo grau de complexidade de especialização, escassez de caracteres distintivos e a elevada plasticidade morfológica. A partir do século XIX emergiram classificações mais robustas. O que conhecemos hoje como Ordem Poecilosclerida só começou a ser delineado pela iniciativa de Zittel (1878) com o reconhecimento de Monaxonida, ou seja, reconhecimento de um padrão de simetria nas categorias de espículas. Ridley e Dendy (1887) apresentaram uma nova classificação para as esponjas do grupo Monaxonida utilizada por Topsent (1894) para criação da Familia Poeciloscleridae, eregida a ordem por este último autor em 1928, enfatizando a presença das quelas como microscleras. Posteriormente, van Soest (1984) e Bergquist e Fromont (1988) empreenderam discussões dessa classificação com base em uma perspectiva filogenética. Uma classificação robusta e de consenso só foi conseguida a partir dos trabalhos de Hajdu e colaboradores (1994a, 1994b) e Hajdu (1994, 1995), com o estabelecimento das Subordens: Mycalina, Myxillina e Microcionina. Apesar disso, as relações internas das famílias da Subordem Mycalina permaneciam com dúvidas, principalmente no tocante à inclusão de Podospongiidae, Isodictyidae, e a relação de Poecilosclerida com a Ordem Haplosclerida. Neste trabalho foi proposto a revisão da classificação da Subordem Mycalina com base em dados morfológicos e moleculares. Foram feitas análises filogenéticas em três níveis taxonômicos, espécie, gênero e família, com base em dados morfológicos. Além disso, foi feita uma análise filogenética molecular utilizando sequências parciais da subunidade maior do RNA ribossomal (LSU do RNAr). As amostras de Mycalina foram amplificadas via PCR e posteriormente sequenciadas. Com base nestes resultados foi concluído que: as Familias Cladorhizidae, Guitarridae, Mycalidae e Hamacanthidae são monofiléticas. Para esta última foi confirmada a série de transformação sigmancistra > cirtancistra > diâncistra > clavidisco. A posição da Familia Podospongiidae dentro de Mycalina está bem corroborada, porém, precisa ser melhor estudada com dados moleculares para determinar, ou não, o seu monofiletismo. A Familia Esperiopsidae precisa ser melhor estudada com base em dados morfológicos e o gênero Amphilectus precisa ser revisado, provavelmente uma parte deste estaria melhor alocado em Haplosclerida junto com Isodictyidae. A Familia Desmacellidae não é monofilética, bem como Biemna e Neofibularia, provavelmente, não são Poecilosclerida e deveriam ser transferidas para uma posição próxima de Tetractinellida. Desmacella provavelmente é uma Mycalina com posição basal na Subordem. Os demais gêneros precisam ser estudados com base em dados moleculares. A Ordem Haplosclerida provavelmente é o grupo irmão de Poecilosclerida e a série de transformação sigmas > quelas foi confirmada com base em dados morfológicos e moleculares. A Subordem Mycalina não é monofilética como definida em Hajdu e van Soest (2002a). Palavras-chave: Sistemática. Porifera. Evolução.
Resumo:
Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.
Resumo:
O objetivo principal desta dissertação é analisar os impactos da abertura comercial vista no Brasil no início da década de 1990 entre 1990 a 1996 na margem de lucro das indústrias de transformação passando por três padrões monetários diferentes (cruzeiro, cruzeiro real e real). A especificação e metodologia adotadas no trabalho são as de Goldar e Aggawal (2004), que fazem uma análise de dados em painel para efeitos fixos e randômicos para as indústrias de transformação indianas como um todo e, posteriormente, aplicando os mesmos testes separando os vinte e oito setores da indústria brasileira de transformação em setores de bens de capital e intermediários no primeiro grupo e bens de capital no segundo. Este trabalho ainda inclui esta metodologia aplicando, além das duas já citadas, o teste de mínimos quadrados ordinários (MQO) para permitir uma melhor análise com três testes diferentes antes e depois de separar os setores por meio de variáveis explicativas como barreiras à importação, concentração industrial, participação salarial, produtividade do trabalho, representatividade setorial e variação na taxa de crescimento da produção do setor entre os anos. Conclui-se que o aumento observado na margem de lucro foi impactado significativamente pelas variáveis expostas acima e estes resultados são importantes para que possamos auferir de que forma impactaram positivamente ou contribuíram negativamente na margem de lucro auferida pela indústria brasileira de transformação entre 1990 e 1996.
Resumo:
Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.
Resumo:
Esta dissertação tem como objetivo a análise da eficiência técnica das operadoras de planos de saúde vis-à-vis a criação da Agência Nacional de Saúde Suplementar - ANS, no período de 2003 a 2008. Para tanto, foi utilizada a Análise Envoltória de Dados nos dados da saúde suplementar para geração das medidas de eficiência das operadoras, agrupadas em cinco modalidades: autogestão, cooperativa médica, filantropia, medicina de grupo e seguradora. Foram propostas quatro diferentes abordagens que pretenderam visualizar as performances das operadoras nas questões econômico-financeiras e assistenciais, bem como a relação do setor de saúde suplementar com o Sistema Único de Saúde - SUS. Além disso, os dados foram desagregados em grandes regiões brasileiras proporcionando a observação das diferenças regionais. Observou-se que existem grandes diferenças entre modalidades e também entre regiões. A comparação entre as medidas de eficiência nas quatro diferentes abordagens e a evolução, ano a ano, dos normativos da ANS, ainda necessita de uma análise mais detalhada, mas indica, ainda que primariamente, que as modalidades tiveram diferentes reações à regulação.
Resumo:
Os métodos potenciais são conhecidos como uma ferramenta útil para estudos regionais. Na Ibéria Ocidental, a gravimetria e a magnetometria podem ser utilizadas para auxiliar no entendimento de algumas questões sobre a estruturação tectônica offshore. Nesta região, tanto as estruturas geradas pela quebra continental, quanto às herdadas do embasamento variscano, tem uma importante contribuição para a resposta geofísica regional observada com estes métodos. Este trabalho tem como objetivo correlacionar as feições geofísicas observadas com alguns modelos geológicos do arcabouço tectônico da Ibéria Ocidental já publicados na literatura. Mapas filtrados foram usados para auxiliar no reconhecimento de diferentes assinaturas geofísicas, os quais foram calculados a partir dos mapas de gravidade Bouguer e do campo magnético total tais como o gradiente horizontal total, derivada tilt, derivada vertical, e integral vertical. O domínio crustal continental foi definido a partir da interpretação dos dados gravimétricos, utilizando gradiente de gravidade horizontal total da Anomalia Bouguer. Os dados magnéticos, originais e filtrados, foram utilizados para identificar mais três domínios regionais offshore, que sugerem a existência de três tipos de crosta não-siálica. Dois deles são propostos como domínios de transição. A região da crosta de transição mais próxima do continente tem uma fraca resposta regional magnética, e a porção mais distal é um domínio de anomalia de alta amplitude, semelhante à resposta magnética oceânica. O limite crustal oceânico não pôde ser confirmado, mas um terceiro domínio offshore, a oeste da isócrona C34, poderia ser considerado como crosta oceânica, devido ao padrão magnético que apresenta. Alguns lineamentos do embasamento foram indicados na crosta continental offshore. As feições gravimétricas e magnéticas interpretadas coincidem, em termos de direção e posição, com zonas de sutura variscanas, mapeados em terra. Assim, esses contatos podem corresponder à continuação offshore destas feições paleozoicas, como o contato entre as zonas de Ossa Morena-Zona Centro-Ibérica. Nesta interpretação, sugere-se que a crosta continental offshore pode ser composta por unidades do Sudoeste da Península Ibérica. Isto permite considerar que a Falha de Porto-Tomar pertence a uma faixa de deformação strike-slip, onde parte das bacias mesozoicas da margem continental está localizada.