957 resultados para DATABASES
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Resumo:
A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.
Resumo:
Desde 2004, o CONAMA (Conselho Nacional de Meio Ambiente), através de sua Resolução n 344, vem exigindo que as análises físicas, químicas e biológicas em matrizes ambientais sejam realizadas em laboratórios ambientais que possuam sua competência técnica reconhecida formalmente através da acreditação concedida pelo Inmetro. Assim, algumas Unidades Federativas vem adotando o mesmo critério para cadastramento de laboratórios em seus bancos de dados. Com isso, houve um crescimento no número de acreditações: em 2002 haviam 12 laboratórios acreditados e em 2012 foram concedidas 198 acreditações a laboratórios ambientais. A adoção da ABNT NBR ISO/IEC 17025 como padrão de trabalho, além de atender as legislações vigentes, possui as seguintes vantagens: satisfação do cliente, credibilidade e melhoria contínua do laboratório, melhoria da capacitação profissional e a conquista de um mercado mais amplo. Buscando adequar-se a essa realidade, apesar de todas as dificuldades inerentes ao processo de implementação dos requisitos da ABNT NBR ISO/IEC 17025 em laboratórios universitários e de pesquisa, o Laboratório de Engenharia Sanitária (LES/DESMA) priorizou a adequação da determinação da demanda química de oxigênio (DQO) aos requisitos técnicos da ABNT NBR ISO/IEC 17025:2005, por ser um parâmetro indicador global de matéria orgânica em águas residuárias e superficiais e ser amplamente utilizado no monitoramento de estações de tratamento de efluentes líquidos e pelo fato deste poder ser determinado por duas técnicas analíticas distintas: espectrofotometria e colorimetria. Em razão deste cenário, o objetivo deste trabalho foi avaliar o desempenho dos métodos 5220 B e 5220 D descritos pelo Standard Methods, através dos parâmetros de validação de métodos analíticos. Ambos os métodos mostraram-se adequados ao uso a que se destinam e o limite de quantificação determinado apresentou-se compatível com o praticado com os laboratórios acreditados. As incertezas foram calculadas de forma a quantificar a qualidade do resultado.
Resumo:
A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.
Resumo:
MENEZES, Patrick Lourenço. Erros pré-analíticos em medicina laboratorial: uma revisão sistemática. 2013. 98 f. Dissertação (Mestrado em Saúde, Medicina Laboratorial e Tecnologia Forense) - Instituto de Biologia Roberto Alcântara Gomes, Universidade do Estado do Rio de Janeiro, Rio de Janeiro, 2013. A relevância evidente dos erros pré-analíticos como problema de saúde pública fica patente tanto no dano potencial aos pacientes quanto nos custos ao sistema de saúde, ambos desnecessários e evitáveis. Alguns estudos apontam que a fase pré-analítica é a mais vulnerável a erros, sendo responsável por, aproximadamente, 60 a 90% dos erros laboratoriais em consequência da falta orientação aos pacientes sobre os procedimentos que serão realizados no laboratório clínico. Objetivos: Sistematizar as evidências científicas relacionadas aos erros pré-analíticos dos exames laboratoriais de análises clínicas. Método: Uma revisão sistemática foi realizada, buscando as bases de dados do Medical Literature Analysis and Retrieval System Online (MEDLINE), Scopus(que inclui MEDLINE e Embase), ISI Web of Knowledge, SciFinder, Literatura Latino-Americana e do Caribe em Ciências da Saúde (Lilacs) (que inclui a Scientific Electronic Library Online SciELO) e o Índice Bibliográfico Espanhol de Ciências de Saúde (IBECS), para artigos publicados entre janeiro de 1990 e junho de 2012 sobre erros de exames laboratoriais que possam ocorrer na fase pré-analítica. Os estudos foram incluídos de acordo com os seguintes exames laboratoriais: hemograma, análise bioquímica do sangue total ou do soro, exames de coagulação sanguínea,uroanálise e exames hematológicos ou bioquímicos em outros materiais e categorizados pelo tipo de erro pré-analítico e pela frequência dos incidentes. Resultados: A busca nas bases de dados bibliográficas resultou no seguinte número de artigos recuperados: 547 na MEDLINE, 229 na Scopus, 110 na ISI, 163 na SciFinder, 228 na Lilacs e 64 na IBECS, perfazendo um total de 1.341 títulos. Ao fim da revisão sistemática, obteve-se um conjunto de 83 artigos para leitura de texto completo, dos quais 14 foram incluídos na revisão. Os estudos abrangeram diferentes tipos de laboratórios, setores técnicos e origem de erros, segundo a fase do processo laboratorial. Discussão: Sete artigos demonstraram erros de pedidos médicos, com uma alta variabilidade nos valores de incidência. Os seis artigos que estudaram erros de coleta de amostra observaram redução deste desfecho. As proporções de eventos adversos relatados e os impactos clínicos variaram, levando a consequências descritas como: erros decorrentes da flebotomia, recoleta de amostras, repetições de exames, atrasos na liberação de resultados de exames e possíveis danos ao paciente. Conclusões: O laboratório deve ter instruções por escrito para cada teste, que descreva o tipo de amostra e procedimento de coleta de amostra. Meios de identificação por código de barras, sistemas robóticos e analíticos reduzem os erros pré-analíticos. A melhoria da fase pré-analítica de testes laboratoriais permanece um desafio para muitos laboratórios clínicos.
Resumo:
A expansão industrial e o desenvolvimento territorial na porção oeste do Município do Rio de Janeiro trazem inúmeras modificações no cenário socioeconômico da região e adjacências. O destaque de investimentos na indústria de transformação é a implantação da Companhia Siderúrgica do Atlântico (CSA), que se mostra como o maior empreendimento privado em realização no país. Investimentos públicos e privados no setor de infraestrutura estão previstos, considerando as características naturais e a localização geográfica privilegiada da região. A influência do porto de Itaguaí e a construção do Arco Metropolitano configuram um corredor de desenvolvimento com reflexos positivos logísticos e socioeconômicos, não só para o estado do Rio de Janeiro, mas também para outros estados brasileiros. Os impactos da reordenação do espaço urbano, com a possibilidade de incremento populacional nas proximidades do novo eixo rodoviário e industrial, tende a gerar um aumento da demanda por serviços no setor terciário. Dessa forma, o planejamento territorial se faz obrigatório, apoiado por geotecnologias. O objetivo da pesquisa foi atender às necessidades do setor habitacional, analisando fatores relevantes e condições favoráveis à implantação de novas construções habitacionais. Baseando-se em dados provenientes do censo do IBGE de 2010 e do Instituto de Urbanismo Pereira Passos (IPP), a Tecnologia da Informação integrada com os dados de mapas digitais e imagens de satélite de alta resolução (World View-2), permitiram uma análise geral do contexto do crescimento regional. Além da análise das variáveis existentes nos dados socioeconômicos, outras variáveis de pesquisa foram empregadas em ambiente SIG, tais como: segurança, proximidades de logradouros principais, existências de escolas e hospitais municipais e estaduais, distância dos centros industriais e de shopping. Após as análises multicriteriais de dados socioeconômicos e bases cartográficas, relatórios na forma de mapas foram emitidos, com a finalidade de orientar o poder público e as construtoras nas tomadas de decisões.
Resumo:
Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.
Resumo:
O estudo teve por objetivo identificar indicadores para monitoramento da saúde da pessoa idosa a partir da perspectiva do envelhecimento ativo, conforme previsto na Política Nacional de Saúde da Pessoa Idosa (PNSPI) e no Pacto pela Saúde. Foi realizada revisão da literatura, utilizando as bases de dados: LILACS, SCIELO e MEDLINE. Cento e oitenta e nove estudos foram identificados e 14 foram incluídos nesta revisão. Um total de 22 indicadores de saúde foi identificado para acompanhamento das condições de saúde da população idosa. Entre os indicadores identificados, um indicador está relacionado a aspectos demográficos; quatro ao uso dos serviços de saúde; e doze à capacidade funcional dos idosos. Todos podem ser utilizados para monitoramento da saúde da população idosa, em consonância às diretrizes da PNSPI e do Pacto pela Saúde. Observou-se a importância do uso de um conjunto de indicadores para avaliação e monitoramento adequados das condições de saúde dos idosos. Pois, os indicadores aplicados isoladamente são limitados para melhor análise dos resultados alcançados na execução da PNSPI. Os inquéritos foram a fonte de dados mais satisfatória para obtenção de informações sobre a capacidade funcional dos idosos. Embora forneçam expressiva quantidade de dados e informações sobre a saúde da população idosa, os Sistemas Nacionais de Informação do Ministério da Saúde, têm maior enfoque na morbimortalidade e não são suficientes para avaliar as especificidades das pessoas idosas sob a ótica do envelhecimento bem sucedido.
Resumo:
A enfermagem é uma profissão voltada para o cuidado das pessoas nas diferentes fases da vida, o ato de cuidar é a essência no fazer da enfermeira, e, possui uma inquietação com o conjunto de prioridade de pesquisa em seu meio. Neste sentido, a saúde materna considerada um indicador sensível à qualidade de vida de uma população é uma delas. O presente estudo é uma revisão integrativa da literatura que teve como objetivo descrever as infecções mais frequentes que a mulher está exposta durante o período puerperal, investigadas em publicações nacional e internacional da área da saúde, além de identificar o nível de evidência cientifica de cada artigo. Para a seleção dos estudos foram utilizadas três bases de dados, ScienceDirect, Pubmed e Lilacs. O recorte temporal foi de 2009 a 2013 e, a amostra foi composta por 19 artigos, relacionado à infecção puerperal. Os dados foram coletados da segunda quinzena de setembro à primeira de outubro. A análise dos estudos permitiu identificar que mais da metade das publicações foi no Brasil. Dois estudos identificaram enfermeiros como autores. A maioria dos periódicos de veiculação dos estudos era da área medica. Doze estudos apresentaram delineamento não experimental, três eram estudo de caso e quatro apresentaram delineamento experimental. As principais infecções puerperais encontradas foram a endometrite, a infecção urinária, a infecção do sítio cirúrgico, a sepse puerperal, a mastite, a cervicite. Os resultados mostraram que são necessárias mais pesquisas com delineamento experimental, principalmente no que tange a área da enfermagem. A avaliação rigorosa da puérpera no pós-parto, a adequada conduta para prevenção da infecção puerperal e/ou manejo das intervenções no cuidado da paciente com morbidade infecciosa, alicerçam ações indispensáveis da enfermeira na obtenção de um atendimento de enfermagem mais seguro, de qualidade, que promova o protagonismo da mulher nesta etapa importante de sua vida e lhe proporcione autonomia em relação aos seus direitos sexuais e reprodutivos contribuindo para a redução da mortalidade materna.
Resumo:
O transtorno de estresse pós-traumático (TEPT) é um transtorno de ansiedade que pode ser desenvolvido após a ocorrência de um evento traumático, e que costuma vir acompanhado de um significativo comprometimento da qualidade de vida. Indivíduos diagnosticados com o TEPT apresentam níveis de frequência cardíaca mais elevados em situações de exposição a eventos estressores, como sons e imagens que relembram a experiência traumática. No entanto, estudos que avaliaram a frequência cardíaca no momento do trauma como preditor do desenvolvimento de TEPT não apresentam resultados consistentes. Os objetivos deste trabalho foram: verificar se frequência cardíaca (FC) peritraumática de repouso, após exposição ao trauma, é um fator preditor para o desenvolvimento do TEPT e para a gravidade dos sintomas de TEPT em adultos. Foi realizada uma revisão sistemática, seguida de metanálise, utilizando-se as bases eletrônicas PUBMED, LILACS, PILOTS, PsycoINFO e Web of Science. Foram incluídos 17 estudos nesta revisão sistemática. Os resultados de dez estudos foram utilizados para a metanálise das diferenças de médias de FC combinada. Oito estudos foram utilizados para a metanálise das correlações entre a FC e a gravidade dos sintomas de TEPT. Modelos de meta-regressão foram ajustados para identificar variáveis que pudessem explicar a heterogeneidade entre os estudos. A FC peritraumática no grupo de pacientes com TEPT é, em média, 3,98 batimento por mimuto (bpm) (p=0,04) maior em comparação com aqueles sem o transtorno, e o coeficiente de correlação de Pearson combinado foi de 0,14 (p=0,05).Consistente com a hipótese levantada, a frequência cardíaca peritraumática de repouso foi maior em indivíduos que desenvolveram o TEPT. Contudo, mensuração mais próxima do evento traumático e a exclusão de casos dissociativos poderão ampliar a magnitude do efeito encontrado, tornando este biomarcador simples e facilmente obtido um preditor clinicamente útil do desenvolvimento de TEPT.
Resumo:
Georreferenced information has been increasingly required for the planning and decision-making in different sectors of society. New ways of dissemination of data, such as the Open Geospatial Consortium (OGC) web services, have contributed to the ease of access to this information. Even with all the technological advances in the area of data distribution, there is still low availability of georreferenced data about the Amazon. The goal of the present work is the development of a spatial data infrastructure (SDI), that is, an environment of sharing and use of georreferenced data based on the technology of web services, metadata and interfaces that allow the user easy access to these data. The present work discussess the OGC patterns, the most relevant georeferrenced data servers, the main web clients, and the revolution in the dissemination of georeferrenced data which geobrowsers and web clients offered to regular users. Data to be released for the case study come from the project Exploitation of Non-wooden Forest Products-PFNM-in progress at the National Institute of Research in the Amazon-INPA-as well as from inventories of NGOs and other government bodies. Besides contributing to the enhancement of PFNM, this project aims at encouraging the use of GIS in the state of Amazonas offering tech support for the deployment of geographic databases and sharing between agencies, optimizing the resources applied in this area through the use of free software and integration of diffuse information currently available.
Resumo:
The goal of this work is to present a collection of drawings and figures depicting the species present in our country. To achieve this, our main sources of information have been the works of Ringuelet et al. (1967), Reis et al. (2003), and López et al. (2003; 2006), as well as the online databases of W. N. Eschmeyer and Fish Base. Each species has an individual factsheet with selected images, including some from anatomical research works. All the works referenced are mentioned in each factsheet. This is an open-ended publication. As such, it will require permanent updating,which will depend on the good will and collaboration of the ichthyological community. As compilers, we understand that this contribution not only provides valuable information, but also highlights the work of men and women who are part of the rich history of our national and regional ichthyology.
Resumo:
The goal of this work is to compile the existing information about the species present in our country. This has been done by means of datasheets that list both local references and reviews by foreign authors that include Argentine taxa. The main information sources consulted were Ringuelet et al. (1967), CLOFFSCA (2003), López et al. (2003; 2006), Liotta (2006) and the online databases of W. N. Eschmeyer and Fish Base. This is an open-ended publication. As such, it will require permanent updating,which will depend on the good will and collaboration of the ichthyological community. With this contribution, we hope to help to build a database of the freshwater fish of Argentina. The completion of this project will provide support to diverse plans emanating from different sectors, as well as promote the diffusion of this field of research and reaffirm Argentina’s sovereign rights over our natural resources.