763 resultados para Desenvolvimento de software


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Topographical surfaces can be represented with a good degree of accuracy by means of maps. However these are not always the best tools for the understanding of more complex reliefs. In this sense, the greatest contribution of this work is to specify and to implement the architecture of an opensource software system capable of representing TIN (Triangular Irregular Network) based digital terrain models. The system implementation follows the object oriented programming and generic paradigms enabling the integration of various opensource tools such as GDAL, OGR, OpenGL, OpenSceneGraph and Qt. Furthermore, the representation core of the system has the ability to work with multiple topological data structures from which can be extracted, in constant time, all the connectivity relations between the entities vertices, edges and faces existing in a planar triangulation what helps enormously the implementation for real time applications. This is an important capability, for example, in the use of laser survey data (Lidar, ALS, TLS), allowing for the generation of triangular mesh models in the order of millions of points.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O principal objetivo deste artigo é contribuir com a adoção do modelo de referência MPS para Software (MPS-SW). Para isso, é proposta uma ontologia dos níveis G e F do modelo, visando apoiar a compreensão e implementação desses níveis. O modelo MPS-SW é adequado a micro, pequenas e médias empresas (mPME), assim como a empresas de grande porte. A proposta pretende mitigar os investimentos técnicos e financeiros na implantação e treinamento do modelo, principalmente nas mPME. Neste contexto, este artigo apresenta a metodologia utilizada para o desenvolvimento da ontologia, com a inclusão de conhecimentos de especialistas no modelo, conceitos do PMBOK (Project Management Body of Knowledge) e indicadores do BSC (Balanced Scorecard). A partir de testes centrados no usuário, foi gerada uma versão beta da ontologia, que está disponível em repositórios livres e gratuitos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este artigo descreve o desenvolvimento e avaliação de um software que verifica a acurácia diagnóstica de alunos de enfermagem. O software foi baseado num modelo que utiliza conceitos da lógica fuzzy, em PERL, banco de dados MySQL para acesso pela internet e a classificação NANDA-I 2007-2008. Avaliou-se a qualidade técnica e a usabilidade do software utilizando instrumentos específicos. A atividade proposta no software possui quatro etapas nas quais o aluno estabelece valores de relação entre diagnósticos de enfermagem, características definidoras/fatores de risco e casos clínicos. Os valores de relação determinados pelo aluno são comparados aos de especialistas, gerando escores de desempenho para o aluno. Na avaliação, o software atendeu satisfatoriamente as necessidades de qualidade técnica e, segundo os alunos, trouxe benefícios ao aprendizado, podendo transformar-se em uma ferramenta educacional no ensino do diagnóstico de enfermagem.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho tem como objetivo investigar na prática organizacional as articulações e desarticulações entre as práticas de treinamento, vistas como mecanismo que disciplina o indivíduo (normas e padronização de procedimentos de trabalho), e as diretrizes de práticas de treinamento, vistas como mecanismo de regulação (normas, padrões de conduta), das relações entre a organização e os funcionários. A pesquisa permite trazer para o ambiente acadêmico científico um aprofundamento quanto aos mecanismos de poder disciplinar exercidos pela organização estudada sobre os funcionários e os mecanismos de regulação sobre o mesmo fenômeno práticas de treinamento , além de explorar a questão da distinção e complementaridade entre ambos. Foi utilizada pesquisa qualitativa e uma proposta teóricometodológica de análise de conteúdo e análise de discurso, a partir de uma amostra indicativa e intencional, sendo a empresa do ramo de desenvolvimento e comércio de software de recursos humanos. Utilizou-se de três instrumentos para a coleta de dados: a entrevista em profundidade, observações do pesquisador e pesquisa documental. As análises feitas entre a teoria e os dados empíricos comprovaram a existência de articulações e desarticulações entre os mecanismos, além de outros achados, confirmados através da norma de treinamento e dos depoimentos dos entrevistados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

À medida que a sociedade evolui, também as profissões evoluem com ela. Uma profissão que tem crescido de forma notável é a de consultor na área das tecnologias de informação. De facto, há alguns anos atrás, esta profissão não tinha o relevo que tem na actualidade, pois com a evolução das tecnologias da informação, as ferramentas ao dispor das empresas diversificaram-se e como tal, a mão-de-obra vai-se especializando nestas ferramentas. As empresas, na impossibilidade de contratar mão-de-obra para instalar, manter e evoluir todas as suas ferramentas, recorrem cada vez mais à experiência de consultores externos; estes são contratados para realizar tarefas específicas que as empresas não têm capacidade de executar com os próprios recursos e a sua ligação com estas entidades termina após a conclusão destas tarefas. Cada vez mais as empresas procuram tirar o máximo partido das ferramentas informáticas à sua disposição e os sistemas de Enterprise Resource Planning não são excepção. À medida que os utilizadores vão usufruindo dos sistemas, surgem novas necessidades que, depois de colmatadas, permitem a sua optimização. Além disso, com a alteração das leis, é preciso adaptar os sistemas para que estes evoluam e possam reflectir os novos requisitos legais. Com o aumento da regulação bancária, as entidades bancárias são obrigadas a comunicar informação sobre as suas finanças ao Banco de Portugal, de modo a que o banco possa analisar a saúde financeira das entidades e emitir recomendações sobre a sua forma de actuar. Esta nova forma de comunicação será efectuada por meio de relatórios em eXtended Business Reporting Language (XBRL). Pretende-se caracterizar a profissão de consultor e apresentar alguns projectos realizados enquanto consultor numa consultora de grande dimensão.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In the Hydrocarbon exploration activities, the great enigma is the location of the deposits. Great efforts are undertaken in an attempt to better identify them, locate them and at the same time, enhance cost-effectiveness relationship of extraction of oil. Seismic methods are the most widely used because they are indirect, i.e., probing the subsurface layers without invading them. Seismogram is the representation of the Earth s interior and its structures through a conveniently disposed arrangement of the data obtained by seismic reflection. A major problem in this representation is the intensity and variety of present noise in the seismogram, as the surface bearing noise that contaminates the relevant signals, and may mask the desired information, brought by waves scattered in deeper regions of the geological layers. It was developed a tool to suppress these noises based on wavelet transform 1D and 2D. The Java language program makes the separation of seismic images considering the directions (horizontal, vertical, mixed or local) and bands of wavelengths that form these images, using the Daubechies Wavelets, Auto-resolution and Tensor Product of wavelet bases. Besides, it was developed the option in a single image, using the tensor product of two-dimensional wavelets or one-wavelet tensor product by identities. In the latter case, we have the wavelet decomposition in a two dimensional signal in a single direction. This decomposition has allowed to lengthen a certain direction the two-dimensional Wavelets, correcting the effects of scales by applying Auto-resolutions. In other words, it has been improved the treatment of a seismic image using 1D wavelet and 2D wavelet at different stages of Auto-resolution. It was also implemented improvements in the display of images associated with breakdowns in each Auto-resolution, facilitating the choices of images with the signals of interest for image reconstruction without noise. The program was tested with real data and the results were good

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As hepatites crônicas por vírus são as mais frequentes, destacando-se os vírus das hepatites B (VHB) e C (VHC). O estudo anatomopatológico da biópsia hepática é considerado o padrão ouro para avaliar com precisão a distorção arquitetural e o grau de fibrose do parênquima do fígado, importantes fatores prognósticos para os pacientes portadores de hepatites crônicas virais. Na avaliação histopatológica atual, em adição aos relatos subjetivos das alterações histológicas, escores semiquantitativos que correlacionam achados morfológicos com graus numéricos são usados, tais como os reconhecidos escores de Ishak e METAVIR. Entretanto, em todos estes sistemas há a desvantagem da subjetividade do examinador e da incorporação de alterações categóricas, sem referências às mudanças quantitativas do colágeno hepático. Técnicas de análise de imagens digitais (AID) que fornecem quantificação objetiva dos graus de fibrose em amostras histológicas têm sido desenvolvidas. Todavia, o alto custo e dificuldade ao acesso das tecnologias descritas restringem seu uso a poucos centros especializados. Este estudo visa o desenvolvimento de uma técnica de custo acessível para a análise de imagens digitais da fibrose hepática em hepatites crônicas virais. Foram estudadas 304 biópsias de pacientes com hepatite crônica por vírus B e C, obtidas através de agulhas Menghini. Todas as amostras tinham pelo menos 15 mm de comprimento ou cinco espaços-porta completos e foram coradas pelo método Tricrômico de Masson. O estadiamento foi feito por um único hepatopatologista experiente, sem o conhecimento dos dados clínicos dos pacientes. Os escores de Ishak e METAVIR foram aplicados. As imagens microscópicas foram digitalizadas. Os índices de fibrose foram determinados de forma automatizada, em técnica desenvolvida no programa Adobe Photoshop. Para o escore de Ishak, observamos os seguintes índices de Fibrose (IF) médios: 0,8% 0,0 (estágio 0), 2.4% 0,6 (estágio 1), 4,7% 1,6 (estágio 2), 7,4% 1,4 (estágio 3), 14,9% 3,7 (estágio 4), 23,4% 2,9 (estágio 5) e 34,5% 1,5 (estágio 6). Para a classificação METAVIR: 0,8% 0,1 (estágio F0), 3,8% 1,8 (estágio F1), 7,4% 1,4 (estágio F2), 20,4% 5,2 (estágio F3) e 34,5% 1,5 (estágio F4). Observamos uma excelente correlação entre os índices de fibrose da AID e os escores de Ishak (r=0,94; p<0,001) e METAVIR (r=0,92; p<0,001). Em relação à indicação de tratamento antiviral, foi observado IF médio de 16,4%. Em relação ao diagnóstico de cirrose, foi observado IF médio de 26,9%, para o escore de Ishak, e 34,5% para a classificação METAVIR. A reprodutibilidade intra-observador foi excelente. Este novo método de análise de imagens digitais para a quantificação de fibrose hepática tem custo acessível e foi desenvolvido com tecnologia que está disponível em todo o mundo, permitindo identificar com precisão todos os estágios de fibrose, com excelente reprodutibilidade intra-observador.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os recentes avanços tecnológicos fizeram aumentar o nível de qualificação do pesquisador em epidemiologia. A importância do papel estratégico da educação não pode ser ignorada. Todavia, a Associação Brasileira de Pós-graduação em Saúde Coletiva (ABRASCO), no seu último plano diretor (2005-2009), aponta uma pequena valorização na produção de material didático-pedagógico e, ainda, a falta de uma política de desenvolvimento e utilização de software livre no ensino da epidemiologia. É oportuno, portanto, investir em uma perspectiva relacional, na linha do que a corrente construtivista propõe, uma vez que esta teoria tem sido reconhecida como a mais adequada no desenvolvimento de materiais didáticos informatizados. Neste sentido, promover cursos interativos e, no bojo destes, desenvolver material didático conexo é oportuno e profícuo. No âmbito da questão política de desenvolvimento e utilização de software livre no ensino da epidemiologia, particularmente em estatística aplicada, o R tem se mostrado um software de interesse emergente. Ademais, não só porque evita possíveis penalizações por utilização de software comercial sem licença, mas também porque o franco acesso aos códigos e programação o torna uma ferramenta excelente para a elaboração de material didático em forma de hiperdocumentos, importantes alicerces para uma tão desejada interação docentediscente em sala de aula. O principal objetivo é desenvolver material didático em R para os cursos de bioestatística aplicada à análise epidemiológica. Devido a não implementação de certas funções estatísticas no R, também foi incluída a programação de funções adicionais. Os cursos empregados no desenvolvimento desse material fundamentaram-se nas disciplinas Uma introdução à Plataforma R para Modelagem Estatística de Dados e Instrumento de Aferição em Epidemiologia I: Teoria Clássica de Medidas (Análise) vinculadas ao departamento de Epidemiologia, Instituto de Medicina Social (IMS) da Universidade do Estado do Rio de Janeiro (UERJ). A base teórico-pedagógica foi definida a partir dos princípios construtivistas, na qual o indivíduo é agente ativo e crítico de seu próprio conhecimento, construindo significados a partir de experiências próprias. E, à ótica construtivista, seguiu-se a metodologia de ensino da problematização, abrangendo problemas oriundos de situações reais e sistematizados por escrito. Já os métodos computacionais foram baseados nas Novas Tecnologias da Informação e Comunicação (NTIC). As NTICs exploram a busca pela consolidação de currículos mais flexíveis, adaptados às características diferenciadas de aprendizagem dos alunos. A implementação das NTICs foi feita através de hipertexto, que é uma estrutura de textos interligados por nós ou vínculos (links), formando uma rede de informações relacionadas. Durante a concepção do material didático, foram realizadas mudanças na interface básica do sistema de ajuda do R para garantir a interatividade aluno-material. O próprio instrutivo é composto por blocos, que incentivam a discussão e a troca de informações entre professor e alunos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivo: Analisar, em fetos humanos, o crescimento da área do pênis, da túnica albugínea e das estruturas eréteis (corpos cavernosos e corpo esponjoso), bem como o aparecimento e modificações das principais estruturas que compõem estes tecidos (colágeno, músculo liso e fibra elástica) durante o período fetal (13 a 36 semanas pós-concepção), fornecendo padrões normativos de crescimento. Material e Métodos: Foram utilizados 56 fetos humanos do sexo masculino com idade gestacional compreendida entre 13 e 36 semanas pós-concepção (SPC). Foram utilizadas técnicas histoquímicas, imunohistoquímicas, e análises morfométricas, e analisados os seguintes parâmetros: área total do pênis, área do corpo cavernoso, área do corpo esponjoso e a espessura da túnica albugínea na região dorsal e ventral do corpo cavernoso. No corpo cavernoso e no corpo esponjoso, as fibras musculares, o colágeno e as fibras do sistema elástico, foram identificados e quantificados por percentagem, no programa Image J (NIH, Bethesda, EUA).Resultados: Da 13 à 36 semana pós-concepção, a área do pênis variou de 0,95mm2 a 24,25mm2. No mesmo período a área do corpo cavernoso variou de 0,28mm2 a 9,12mm2 e a área do corpo esponjoso de 0,14mm2 a 3,99mm2. No corpo cavernoso a percentagem de fibras colágenas, fibras musculares e fibras do sistema elástico variaram, respectivamente, de 19,88% a 36,60%, de 4,39 % a 29,76 % e de 1,91% a 8,92%. No corpo esponjoso a percentagem de fibras colágenas, fibras musculares e fibras do sistema elástico variaram, respectivamente de 34,65% a 45,89%, de 0,60% a 11,90% e de 3,22% a 11,93%. A espessura da túnica albugínea variou de 0,029 a 0,296 na região dorsal e de 0,014 a 0,113 na região ventral do corpo cavernoso.Conclusão: Existe correlação fortemente positiva entre o crescimento da área total, da área do corpo cavernoso e da área do corpo esponjoso, com a idade gestacional, assim como existe correlação entre o crescimento dos elementos constituintes do tecido erétil do pênis (colágeno, fibras musculares lisas e fibras elásticas) com a idade gestacional no período fetal estudado. O ritmo de crescimento do pênis é mais intenso no IIo. trimestre gestacional (13 a 24 SPC). O crescimento da espessura da túnica albugínea também foi diretamente proporcional e apresentou correlação fortemente positiva com a idade gestacional, sendo maior na região dorsal em relação à região ventral do corpo cavernoso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os SIG estão se popularizando cada vez mais e isso tem se dado principalmente através da Internet. Os assim chamados SIG-Web no entanto, quando desenvolvidos com as tecnologias tradicionais de web, apresentam as mesmas fraquezas daquelas, a saber: sincronicidade e pobreza na interação com o usuário. As tecnologias usadas para Rich Internet Applications (RIA) são uma alternativa que resolvem esses problemas. Na presente dissertação será demonstrada a factibilidade do seu uso para o desenvolvimento de SIG-Web, oferecendo um conjunto de códigos e estratégias para desenvolvimentos futuros, a partir de um conjunto básico de operações a se realizar em um SIG-Web. Adicionalmente será proposta a UWE-R, uma extensão a uma metodologia de engenharia web existente, para modelagem de RIA e SIG-Web.