472 resultados para Segmentação ortográfica
Resumo:
El objetivo de la presente tesis fue el de analizar de qué manera niños y niñas hablantes de español adquieren conocimiento ortográfico. Con tal fin, se realizó una investigación longitudinal en la cual se realizó el seguimiento, durante tres años, de un grupo de sujetos que ingresaba a la escuela primaria. En este seguimiento se administraron pruebas de las habilidades consideradas predictoras de la adquisición de conocimiento ortográfico a principio y a fin de primer grado y pruebas de escritura y lectura de palabras ortográficamente complejas a fin de primer, segundo y tercer grado. Asimismo, se realizaron dos situaciones experimentales de adquisición de conocimiento ortográfico a fin de segundo y tercer grado. El análisis de los resultados obtenidos a principio de primer grado se relacionó con el conocimiento de las letras. Los resultados permitieron observar una parcial independencia entre el conocimiento del nombre y del sonido de las letras del alfabeto. En efecto, los sujetos de este estudio conocían en mayor medida los nombres que los sonidos de letras, hecho que permite suponer que el nombre constituye la primera etiqueta aprendida y que el conocimiento de los sonidos sería, al menos en parte, inferido a partir del nombre de las letras. Asimismo, el conjunto de resultados referidos al conocimiento de las letras permite sugerir que el aprendizaje de las mismas se encuentra asociado fuertemente a su nivel de frecuencia. A fin de primer grado, se observa un escaso dominio del conocimiento ortográfico por parte de los niños y niñas. En efecto, los resultados obtenidos sugieren que los sujetos estarían operando con un alfabeto simplificado, esto es, como si todas las correspondencias fonema-grafema fueran unívocas. De hecho, el conjunto de resultados obtenidos sugiere que, en esta instancia del desarrollo, los niños y las niñas escriben recurriendo a mecanismos fonológicos y que la complejidad fonológica de las palabras afecta en mayor medida el desempeño al escribir que al leer. A fin de segundo grado, se encontraron importantes diferencias entre los tiempos de lectura de palabras y pseudopalabras. En efecto, los niños y las niñas reconocieron una palabra por segundo mientras que necesitaron en 4 promedio 5 segundos para leer cada pseudopalabra. Este resultado podría estar dando cuenta de un proceso de lexicalización de ciertos ítems léxicos. Sin embargo, el desempeño en la escritura de palabras no mostró en la misma medida evidencia de un proceso de lexicalización, dado que la representación de las correspondencias inconsistentes no dominantes alcanzó apenas un 48. Se observó también que el mejor predictor de la escritura fue el desempeño en la prueba de fluidez en el trazado de las letras, resultado que sugiere un importante efecto de las tareas motoras en el desarrollo de la escritura. A fin de tercer grado, si bien la lectura de palabras había llegado prácticamente al techo en el desempeño, los sujetos todavía no superaban el 70 de la escritura de palabras ortográficamente complejas. Estos resultados, aparentemente contradictorios, pueden encontrar explicación en la existencia de representaciones ortográficas de diferente calidad. Es decir, existirían representaciones de cierto nivel que permitirían un desempeño satisfactorio en la lectura de palabras, pero que no serían suficientes para la escritura convencional de las mismas. En relación a las situaciones experimentales de aprendizaje ortográfico, pudo observarse que los sujetos, a fin de segundo grado, se desempeñan operando con un sistema simplificado de correspondencias que la lectura repetida de nuevas palabras no puede contrarrestar. A fin de tercer grado, la recodificación fonológica parece actuar como un mecanismo de aprendizaje de la forma ortográfica de las palabras aunque el análisis en detalle del desempeño muestra que los niños y niñas obtuvieron un desempeño bajo en el post test que incluía la escritura de pseudopalabras con grafemas de frecuencia baja
Resumo:
El objetivo de la presente tesis fue el de analizar de qué manera niños y niñas hablantes de español adquieren conocimiento ortográfico. Con tal fin, se realizó una investigación longitudinal en la cual se realizó el seguimiento, durante tres años, de un grupo de sujetos que ingresaba a la escuela primaria. En este seguimiento se administraron pruebas de las habilidades consideradas predictoras de la adquisición de conocimiento ortográfico a principio y a fin de primer grado y pruebas de escritura y lectura de palabras ortográficamente complejas a fin de primer, segundo y tercer grado. Asimismo, se realizaron dos situaciones experimentales de adquisición de conocimiento ortográfico a fin de segundo y tercer grado. El análisis de los resultados obtenidos a principio de primer grado se relacionó con el conocimiento de las letras. Los resultados permitieron observar una parcial independencia entre el conocimiento del nombre y del sonido de las letras del alfabeto. En efecto, los sujetos de este estudio conocían en mayor medida los nombres que los sonidos de letras, hecho que permite suponer que el nombre constituye la primera etiqueta aprendida y que el conocimiento de los sonidos sería, al menos en parte, inferido a partir del nombre de las letras. Asimismo, el conjunto de resultados referidos al conocimiento de las letras permite sugerir que el aprendizaje de las mismas se encuentra asociado fuertemente a su nivel de frecuencia. A fin de primer grado, se observa un escaso dominio del conocimiento ortográfico por parte de los niños y niñas. En efecto, los resultados obtenidos sugieren que los sujetos estarían operando con un alfabeto simplificado, esto es, como si todas las correspondencias fonema-grafema fueran unívocas. De hecho, el conjunto de resultados obtenidos sugiere que, en esta instancia del desarrollo, los niños y las niñas escriben recurriendo a mecanismos fonológicos y que la complejidad fonológica de las palabras afecta en mayor medida el desempeño al escribir que al leer. A fin de segundo grado, se encontraron importantes diferencias entre los tiempos de lectura de palabras y pseudopalabras. En efecto, los niños y las niñas reconocieron una palabra por segundo mientras que necesitaron en 4 promedio 5 segundos para leer cada pseudopalabra. Este resultado podría estar dando cuenta de un proceso de lexicalización de ciertos ítems léxicos. Sin embargo, el desempeño en la escritura de palabras no mostró en la misma medida evidencia de un proceso de lexicalización, dado que la representación de las correspondencias inconsistentes no dominantes alcanzó apenas un 48. Se observó también que el mejor predictor de la escritura fue el desempeño en la prueba de fluidez en el trazado de las letras, resultado que sugiere un importante efecto de las tareas motoras en el desarrollo de la escritura. A fin de tercer grado, si bien la lectura de palabras había llegado prácticamente al techo en el desempeño, los sujetos todavía no superaban el 70 de la escritura de palabras ortográficamente complejas. Estos resultados, aparentemente contradictorios, pueden encontrar explicación en la existencia de representaciones ortográficas de diferente calidad. Es decir, existirían representaciones de cierto nivel que permitirían un desempeño satisfactorio en la lectura de palabras, pero que no serían suficientes para la escritura convencional de las mismas. En relación a las situaciones experimentales de aprendizaje ortográfico, pudo observarse que los sujetos, a fin de segundo grado, se desempeñan operando con un sistema simplificado de correspondencias que la lectura repetida de nuevas palabras no puede contrarrestar. A fin de tercer grado, la recodificación fonológica parece actuar como un mecanismo de aprendizaje de la forma ortográfica de las palabras aunque el análisis en detalle del desempeño muestra que los niños y niñas obtuvieron un desempeño bajo en el post test que incluía la escritura de pseudopalabras con grafemas de frecuencia baja
Resumo:
Tabla de contenidos: Los precursores: casticistas y románticos (1828-1838). Sarmiento: la polémica con Bello y la reforma ortográfica (1841-1870). La intervención de la Real Academia en América (1870-1880). Academias correspondientes y diccionarios (1889-1892). Contra el purismo: de Lenz a Cuervo (1893-1900). Polémicas en torno a las tesis segregacionistas de Abeille y Cuervo (1900-1903). Del viraje de Unamuno a la tesis de la escisión moral, de Menéndez Pidal (1903-1918). Primeras periodizaciones: Costa Alvarez, Quesada y Rojas (1922-1923). La querella al irrumpir el Instituto de Filología (1923-1927). Fin de un ciclo: apogeo y caída (1927-1928).
Resumo:
Hay un ejemplar encuadernado con: "Bocetos al pastel y otras menudencias" (Carreres/4460)
Resumo:
Historicamente tido como nacional, o meio revista está sendo regionalmente reinventado. Seus moldes tradicionais passam por uma readaptação e os esquematismos dominantes na produção jornalística já não são homogêneos. Há um movimento setorial à procura de um novo mercado, incrustado nas especificidades regionais e no desenvolvimento socioeconômico que está vicejando num cotidiano desconhecido pela chamada grande imprensa. O mercado de revistas no Brasil cresce consecutivamente e de forma organizada há anos. Embora não haja registros nas fontes de autoridade, as revistas regionais e as tiragens têm se multiplicado velozmente, contrariando os revezes econômico-financeiros sentidos por outros setores da indústria cultural. Este fenômeno é o objetivo desta pesquisa: mapear a nova geografia do meio revista nas cinco macrorregiões brasileiras para entender como as identidades regionais são processadas em favor da comunicação com públicos específicos, característica que está na essência da revista. Métodos mistos de pesquisa qualitativa e quantitativa traçam o caminho da justaposição necessária para descrever este surto de publicações regionais. Estudo de casos múltiplos e análise de conteúdo envolvendo cinco revistas de cada uma das regiões políticoadministrativas, descrevem e discutem as tendências da segmentação no mercado editorial além do eixo Rio-São Paulo. Como resultado desta investigação, chega-se às seguintes conclusões: a consolidação de um novo campo jornalístico regional, profissionalizado, competente e criativo, distante do amadorismo, do bairrismo e da mimetização simplista; os mais expressivos veículos de cada uma das cinco macro-regiões infra-nacionais, segundo o construto metodológico criado para esta pesquisa, trabalham as relações, modos e demandas de produção simbólica sem artificialismos; as identidades regionais instituídas estão intimamente ligadas às regiões de influência e as redes urbanas; o retrato do estilo de vida urbano estampado nas revistas do corpus reforça tanto o poder desta como veículo de comunicação, como retroalimenta os sotaques regionais nos níveis sociais onde são produzidas e digeridas.(AU)
Resumo:
Historicamente tido como nacional, o meio revista está sendo regionalmente reinventado. Seus moldes tradicionais passam por uma readaptação e os esquematismos dominantes na produção jornalística já não são homogêneos. Há um movimento setorial à procura de um novo mercado, incrustado nas especificidades regionais e no desenvolvimento socioeconômico que está vicejando num cotidiano desconhecido pela chamada grande imprensa. O mercado de revistas no Brasil cresce consecutivamente e de forma organizada há anos. Embora não haja registros nas fontes de autoridade, as revistas regionais e as tiragens têm se multiplicado velozmente, contrariando os revezes econômico-financeiros sentidos por outros setores da indústria cultural. Este fenômeno é o objetivo desta pesquisa: mapear a nova geografia do meio revista nas cinco macrorregiões brasileiras para entender como as identidades regionais são processadas em favor da comunicação com públicos específicos, característica que está na essência da revista. Métodos mistos de pesquisa qualitativa e quantitativa traçam o caminho da justaposição necessária para descrever este surto de publicações regionais. Estudo de casos múltiplos e análise de conteúdo envolvendo cinco revistas de cada uma das regiões políticoadministrativas, descrevem e discutem as tendências da segmentação no mercado editorial além do eixo Rio-São Paulo. Como resultado desta investigação, chega-se às seguintes conclusões: a consolidação de um novo campo jornalístico regional, profissionalizado, competente e criativo, distante do amadorismo, do bairrismo e da mimetização simplista; os mais expressivos veículos de cada uma das cinco macro-regiões infra-nacionais, segundo o construto metodológico criado para esta pesquisa, trabalham as relações, modos e demandas de produção simbólica sem artificialismos; as identidades regionais instituídas estão intimamente ligadas às regiões de influência e as redes urbanas; o retrato do estilo de vida urbano estampado nas revistas do corpus reforça tanto o poder desta como veículo de comunicação, como retroalimenta os sotaques regionais nos níveis sociais onde são produzidas e digeridas.(AU)
Resumo:
Investigação sobre a regionalização das redes de comunicação, em especial a televisão, fenômeno que representa uma realidade de segmentação da comunicação massiva. Objetiva-se analisar e classificar as emissoras regionais de televisão com relação aos seus modos de inserção local, observando-se suas especificidades, programação, estratégias de comunicação e ações de conquista de identidade com a comunidade onde estão inseridas, além de tentar compreender como se deu a expansão da televisão nessa região, desde a implantação da primeira emissora, em 1988, na cidade de São José dos Campos SP. Tomando-se como recorte de estudo, as emissoras de televisão regional de sinal aberto no Vale do Paraíba, estado de São Paulo, foram realizadas entrevistas semi-abertas com profissionais das áreas comercial e de programação das mesmas e aplicados questionários junto a uma amostra da população do Vale do Paraíba que representa os telespectadores potenciais da área de cobertura dessas emissoras, a fim de se identificar a percepção que o público receptor tem a respeito da presença e atuação das televisões locais. Conclui-se que os diferentes modos de inserção local das emissoras influem diretamente na relação de identidade das mesmas com os telespectadores da região.(AU)
Resumo:
Investigação sobre a regionalização das redes de comunicação, em especial a televisão, fenômeno que representa uma realidade de segmentação da comunicação massiva. Objetiva-se analisar e classificar as emissoras regionais de televisão com relação aos seus modos de inserção local, observando-se suas especificidades, programação, estratégias de comunicação e ações de conquista de identidade com a comunidade onde estão inseridas, além de tentar compreender como se deu a expansão da televisão nessa região, desde a implantação da primeira emissora, em 1988, na cidade de São José dos Campos SP. Tomando-se como recorte de estudo, as emissoras de televisão regional de sinal aberto no Vale do Paraíba, estado de São Paulo, foram realizadas entrevistas semi-abertas com profissionais das áreas comercial e de programação das mesmas e aplicados questionários junto a uma amostra da população do Vale do Paraíba que representa os telespectadores potenciais da área de cobertura dessas emissoras, a fim de se identificar a percepção que o público receptor tem a respeito da presença e atuação das televisões locais. Conclui-se que os diferentes modos de inserção local das emissoras influem diretamente na relação de identidade das mesmas com os telespectadores da região.(AU)
Resumo:
O jornalismo é um dos principais meios de oferta de temas para a discussão e formação da opinião pública, porém depende de um sistema técnico para ser transmitido. Durante mais de cem anos as informações produzidas pela imprensa foram emitidas, armazenadas, transmitidas e recebidas pelos chamados veículos de comunicação de massa que utilizam a rede centralizada cujas características estão na escassez material, produção em série e massificação. Esse sistema separa no tempo e no espaço emissores e receptores criando uma relação desigual de força em que as grandes empresas controlaram o fluxo informativo, definindo quais fatos seriam veiculados como notícia. Em 1995, a internet cuja informação circula sob a tecnologia da rede distribuída, foi apropriada pela sociedade, alterando a forma de produção, armazenamento e transmissão de informação. A tecnologia despertou a esperança de que esta ferramenta poderia proporcionar uma comunicação mais dialógica e democrática. Mas aos poucos pode-se perceber novas empresas se apropriando da tecnologia da rede distribuída sob a qual circula a internet, gerando um novo controle do fluxo informativo. Realizou-se nessa pesquisa um levantamento bibliográfico para estabelecer uma reflexão crítica dos diferentes intermediários entre fato e a notícia tanto da rede centralizada como na rede distribuída, objetivando despertar uma discussão que possa oferecer novas ideias para políticas, bem como alternativas para uma comunicação mais democrática e mais libertária.
Resumo:
A literatura acadêmica sobre o comportamento do investidor financeiro é bastante escassa. A pesquisa sobre o processo de decisão, em geral, aborda tradeoffs na aquisição de produtos e pouco se discute o processo de decisão de investimento. Esta tese pretende contribuir para a redução deste gap ao discutir fatores determinantes para a tomada de decisão do investidor pessoal em produtos financeiros. A decisão de investimento é complexa, envolve, entre outros, o tradeoff entre renunciar o consumo presente pela possibilidade de maior bem estar no futuro. Adicionalmente, em muitas situações, existe possibilidade real de perda dos recursos financeiros investidos. Para investigar os percursos desta decisão foram realizadas entrevistas em profundidade com executivos ligados ao setor de fundos de investimento e ao de distribuição de produtos de investimento dos maiores bancos brasileiros atuantes no segmento de varejo. Os conhecimentos recolhidos e a revisão de literatura efetuada subsidiaram a elaboração do questionário de pesquisa aplicado em plataforma web junto a potenciais investidores. Os atributos rentabilidade, possibilidade de perda (proxy de risco), liquidez, taxa de administração e recomendação do gerente foram identificados como os mais relevantes para a decisão do investidor. Para construção dos estímulos e decomposição da utilidade da decisão foi utilizada a técnica conjoint based choice (CBC) que simula uma decisão real. Os resultados apontaram ser a recomendação do gerente o atributo mais importante para a formação da preferência por uma alternativa de investimento, resultado que, por si só, indica que fatores não racionais exercem influência na decisão. Estudou-se, então, o impacto da aversão ao risco e do estilo cognitivo do investidor. Os resultados denotam que os mais avessos e os mais intuitivos são mais suscetíveis à recomendação do gerente, mas que seus efeitos são independentes entre si. As evidências sugerem que os mais intuitivos utilizam o gerente para alcançar conforto cognitivo na decisão e que os mais avessos para mitigar a sensação de risco associada ao produto. Uma análise de cluster indicou ser possível segmentar a amostra em dois grupos, um mais propenso à recomendação do gerente e outro aos atributos do produto. A recomendação do gerente mostrou ser o atributo mais forte na distinção dos grupos. Os resultados indicam que uma segmentação de mercado baseada na propensão à recomendação do gerente pode ser efetiva para direcionar a construção de uma estratégia de relacionamento que busque incrementar os resultados de longo prazo.
Resumo:
O objetivo deste trabalho é apresentar uma técnica automática baseada em morfologia matemática para medida de sinal em imagens de cDNA desenvolvida no BIOINFO,em parceria com o Instituto Ludwig de Pesquisa contra o Câncer. A tecnologia de lâminas de cDNA é um processo baseado em hibridização que possibilita observar a concentração relativa de mRNA de amostras de tecidos analisando a luminosidade de sinais fluorescentes ou radioativos. Hibridização é o processo bioquímico onde duas fitas de ácido nucleico com seqüências complementares se combinam. A técnica apresentada permite o cálculo da expressão gênica com alto grau de automação, podendo o usuário corrigir com facilidade eventuais erros de segmentação. O usuário interage com o programa apenas para selecionar as imagens e inserir os dados de geometria da lâmina. A estratégia de solução usada tem três fases: gradeamento dos blocos, gradeamento dos spots e segmentação dos spots. Todas as fases utilizam filtros morfológicos e as fases de gradeamento possuem um passo final de correção baseado nos dados de geometria da lâmina o que aumenta a robustez do processo, que funciona bem mesmo em imagens ruidosas.
Resumo:
A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.
Resumo:
O estudo do movimento pulmonar é assunto de grande interesse na área médica. A observação direta do mesmo é inviável, uma vez que o pulmão colapsa quando a caixa torácica é aberta. Dentre os meios de observação indireta, escolheu-se o imageamento por ressonância magnética em respiração livre e sem uso de nenhum gás para melhorar o contraste ou qualquer informação de sincronismo. Esta escolha propõe diversos desafios, como: a superar a alta variação na qualidade das imagens, que é baixa, em geral, e a suscetibilidade a artefatos, entre outras limitações a serem superadas. Imagens de Tomografia Computadorizada apresentam melhor qualidade e menor tempo de aquisição, mas expõem o paciente a níveis consideráveis de radiação ionizante. É apresentada uma metodologia para segmentação do pulmão, produzindo um conjunto de pontos coordenados. Isto é feito através do processamento temporal da sequência de imagens de RM. Este processamento consiste nas seguintes etapas: geração de imagens temporais (2DSTI), transformada de Hough modificada, algoritmo de contornos ativos e geração de silhueta. A partir de um dado ponto, denominado centro de rotação, são geradas diversas imagens temporais com orientações variadas. É proposta uma formulação modificada da transformada de Hough para determinar curvas parametrizadas que sejam síncronas ao movimento diafragmático, chamados movimentos respiratórios. Também são utilizadas máscaras para delimitar o domínio de aplicação da transformada de Hough. São obtidos movimentos respiratórios que são suavizados pelo algoritmo de contornos ativos e, assim, permitem a geração de contornos para cada quadro pertencente a sequência e, portanto, de uma silhueta do pulmão para cada sequência.
Resumo:
O presente trabalho apresenta uma alternativa ao processo de classificação do defeito da segregação central em amostras de aço, utilizando as imagens digitais que são geradas durante o ensaio de Baumann. O algoritmo proposto tem como objetivo agregar as técnicas de processamento digital de imagens e o conhecimento dos especialistas sobre o defeito da segregação central, visando a classificação do defeito de referência. O algoritmo implementado inclui a identificação e a segmentação da linha segregada por meio da aplicação da transformada de Hough e limiar adaptativo. Adicionalmente, o algoritmo apresenta uma proposta para o mapeamento dos atributos da segregação central nos diferentes graus de severidade do defeito, em função dos critérios de continuidade e intensidade. O mapeamento foi realizado por meio da análise das características individuais, como comprimento, largura e área, dos elementos segmentados que compõem a linha segregada. A avaliação do desempenho do algoritmo foi realizada em dois momentos específicos, de acordo com sua fase de implementação. Para a realização da avaliação, foram analisadas 255 imagens de amostras reais, oriundas de duas usinas siderúrgicas, distribuídas nos diferentes graus de severidade. Os resultados da primeira fase de implementação mostram que a identificação da linha segregada apresenta acurácia de 93%. As classificações oriundas do mapeamento realizado para as classes de criticidade do defeito, na segunda fase de implementação, apresentam acurácia de 92% para o critério de continuidade e 68% para o critério de intensidade.
Resumo:
Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.