119 resultados para Verificação
Resumo:
Durante a realização de projetos de sistemas de refrigeração assistidos por sistemas de armazenagem de energia, na forma latente, é necessário que se saiba de antemão as taxas de transferência de energia dos mesmos. Na literatura soluções para este problema são escassos e não abordam todas as geometrias utilizadas para o armazenamento de energia latente, inexistindo correlaçõesmatemáticas que permitam aos projetistas prever o comportamento da fusão e da solidificação do material de mudança de fase (MMF) e as taxas de transferência de energia térmica. Na solução destes problemas são usualmente adotadas hipóteses simplificativas para amenizar o grau de complexidade da descrição matemática do problema Uma destas hipóteses constitui-se em desconsiderar o processo advectivo na transferência de calor no MMF, em sua fase líquida. Outra hipótese adotada, quando o MMF é a água pura, consiste em utilizar um comportamento linear para a massa específica ou um comportamento médio, consistindo em um afastamento da realidade. Este trabalho descreve esforços no sentido de aproximar estas soluções cada vez mais da realidade fisica do problema. São apresentadas simulações para a mudança de fase da água pura levando em conta a inversão da massa específica, em geometria polar, na forma transiente, utilizando o método de Volumes Finitos para solução das equações governantes. As soluções apresentadas, otimizadas quanto às malhas espacial e temporal, envolvem condições de contorno de primeira e terceira espécies Como resultado das soluções são apresentados o Nusselt local, ao longo da parede do cilindro além do Nusselt médio. Correlações matemáticas para o número de Nusselt médio durante a fusão e para o volume de MMF fundido, são propostos e apresentados. A evolução geométrica da fronteira de mudança de fase também é avaliada para as duas condições de contorno e diversos números de Rayleigh. Comparações entre o volume fundido considerando apenas o processo difusivo e o volume fundido utilizando a convecção são realizadas. Para a verificação da independ~encia de malha aplica-se o índice de convergência de malha (GCI) . Algumas comparações qualitativas com soluções experimentais disponíveis na literatura são apresentadas.
Resumo:
Esta pesquisa investigou os fatores que afetam a apropriação de espaços abertos públicos - ruas e espaços públicos de lazer -, adotando como estudo de caso a cidade de Campo Grande – MS. Procurou entender as causas de diferentes níveis de apropriação de espaços públicos abertos, através de uma abordagem perceptiva que utilizou a satisfação do usuário e o comportamento ambiental como indicadores de desempenho dos espaços estudados. Este é avaliado a partir das percepções dos moradores e usuários sobre as áreas selecionadas, e da verificação do perfil comportamental dos espaços. O objetivo principal deste trabalho é a investigação de quais aspectos afetam mais fortemente os tipos e intensidade de uso diferenciados dos espaços abertos públicos, se fatores composicionais ou fatores contextuais. O levantamento de dados foi realizado através da aplicação de múltiplos métodos: levantamentos de arquivos, levantamentos físicos, observações comportamentais, aplicação de questionários e entrevistas. A análise destes dados possibilitou uma maior precisão e validade da investigação A análise das relações entre características individuais dos usuários e nível de apropriação dos espaços públicos e entre atributos ambientais e diferentes níveis de apropriação dos espaços públicos, indicam que os aspectos composicionais de ordem socioeconômica afetam fortemente o tipo e intensidade de uso das ruas residenciais. Em relação aos espaços públicos de lazer, os resultados evidenciam a forte influência de aspectos de ordem física no tipo e intensidade de uso. As conclusões indicam que, se for desejável uma dinamização das ruas para atividades sociais, é possível alcançar o objetivo, em certa medida (que depende especialmente de valores relacionados com o nível socio-econômico da população atingida), criando condições físicas que favoreçam o encontro e a permanência. Quanto aos espaços públicos de lazer as conclusões indicam que investimentos no planejamento físico destes, embasados em conhecimento real das necessidades da população alvo, darão retorno consistente em maior uso.
Resumo:
A Internet pelos mecanismos de informação, comunicação e cooperação que proporciona, vem se afirmando ao longo dos últimos anos, como uma interessante opção à viabilização da educação a distância e a aprendizagem virtual, através do uso de Ambientes de Gerenciamento de Cursos a Distância, que procuram oferecer um amplo e consistente conjunto de ferramentas de suporte à comunicação, às atividades de alunos e de professores, à avaliação e monitoração dessas atividades, bem como à coordenação e à administração do sistema [KIS 2002]. Procurando identificar as características, propriedades e atributos mais relevantes e usualmente oferecidos por ambientes, foram estudados os ambientes: WebCT, TopClass e Learning Space, como referências de ambientes comerciais e AulaNet, TelEduc e EAD UNISC, como exemplos de ambientes acadêmicos. Como resultado desse estudo, foi elaborada uma estrutura hierárquica de três níveis: áreas, funcionalidades e características, onde o primeiro nível, representa as principais áreas de abrangência de um ambiente, o segundo, as funcionalidades consideradas em cada área e, o terceiro, as características que definem cada uma das funcionalidades. A partir dessa estruturação em níveis, foi elaborada e proposta uma metodologia de avaliação para permitir a verificação quantitativa e qualitativa das funcionalidades e características apresentadas por Ambientes de Gerenciamento de Cursos a Distância. Como principais características desta metodologia, podem ser destacadas: a estrutura hierárquica em níveis, a atribuição de pesos aos diferentes níveis de acordo com o grau de importância, a possibilidade de inclusão de ambientes pelos próprios fabricantes ou responsáveis, a disponibilização de um perfil default de avaliação, a apresentação do ranking de ambientes segundo um perfil de avaliação, a comparação de ambientes quanto as suas características e funcionalidades e a possibilidade de alteração ou criação de novos perfis de avaliação, segundo as diferentes necessidades de cada usuário. Para validar essa metodologia, foi desenvolvido e disponibilizado na Web para consulta geral, um sistema de Benchmark, que além de pontuar os sistemas cadastrados segundo o perfil criado nesse trabalho, possibilita a definição de novos perfis para avaliação, assim como consultas e comparações quanto às funcionalidades e às características apresentadas pelos ambientes, auxiliando a diminuir o nível de subjetividade dos usuários, nos processos relacionados à escolha do ambiente mais adequado as suas necessidades.
Resumo:
Um edifício de esquina configura uma situação urbana específica e em certo sentido especial, pois passa a ser muitas vezes um marco referencial e visual, que contempla o encontro de duas ruas e que, inevitavelmente, o torna ponto de encontro ou simples referência de localização para os transeuntes de uma grande cidade. O trabalho apresentado pretende traçar um panorama da produção dos edifícios de esquina mais significativos, dos modernos aos contemporâneos, finalizando com exemplos da cidade de Curitiba. Procurou-se desde o início evidenciar e conceituar a situação esquina, ou melhor, “lote de esquina”, que apresenta diferenças grandes entre as cidades com traçado geomorfológico e as com traçado regulador. As análises dos exemplos procuraram seguir o que era hierarquicamente mais forte em cada caso, gerando um conjunto de termos e significados específicos a cada edifício. O conjunto analisado mostra uma paleta de alternativas bastante rica, diversa e muitas vezes polêmica, mas nunca indiferente ao problema em questão, o que leva em conta a verificação de uma cuidadosa e sensível análise contextual de praticamente todos os arquitetos analisados. O trabalho procura então concluir que a situação “edifício de esquina” se configura como carente de cuidados, no sentido de uma correta, precisa e sensível leitura do entorno, este muitas vezes ignorados por parte da produção moderna, e que felizmente, contemporaneamente tem mostrado excelentes exemplos de entendimento do genius loci , revelando esquinas no mínimo instigantes.
Resumo:
Neste trabalho abordam-se as questões relevantes de uma avaliação analítica de estruturas acabadas, apresentando-se os aspectos fundamentais quanto à inspeção e verificação da sua segurança. Primeiramente, apresenta-se os métodos de avaliação, enfatizando-se as vantagens e restrições do emprego de cada método. Quanto à inspeção, são apresentados e discutidos os principais ítens que devem ser verificados nas estruturas acabadas. :t:nfasemaior é dada à inspeção da resistência do concreto, discutindo-se aspectos de sua variação nas ~struturas e apresentando-se os métodos de ensaio empregados. É proposta uma metodologia para a inspeção do concreto, racionalizando-se o emprego dos métodos não-destrutivos. Por fim, destaca-se os aspectos teóricos da verificação da segurança nas estruturas acabadas e as principais diferenças quanto à introdução da segurança nos projetos de novas estruturas.
Resumo:
Os recursos hídricos superficiais e subterrâneos tem-se mostrado contaminados, cada vez mais freqüentemente, por substâncias orgânicas e inorgânicas, em nível de traços, prejudicando os seus usos mais nobres, por exemplo, abastecimento público. Este estudo teve por finalidade principal verificar a eficiência de rejeição por membranas poliméricas, de alguns compostos orgânicos tipo, naftaleno, carbofurano, tricloroetileno (TCE) e metil paration, em baixas concentrações. Empregou-se testes hidrodinâmicos de filtração, tipo "dead-end", com taxa de aplicação média de 13,16 m3.m-2.h-1 através das membranas comerciais de características distintas, uma de ultra (UE-50) e duas de nanofiltração (XN-40 e TS-80). Avaliou-se, também, a preparação de água contaminada para a filtração por membranas, através do prétratamento por oxidação do carbofurano em meio líquido, usando um desinfetante padrão, o hipoclorito de sódio. Após a oxidação desde composto, testes hidrodinâmicos de filtração foram realizados para verificar, também, a eficiência de rejeição dos sub-produtos. Por fim, foram realizados testes de envelhecimento das membranas que poderiam ser atacadas pelos compostos orgânicos em solução aquosa. Todos os ensaios foram realizados à temperatura de 25 oC, empregando pressão de filtração de 4 atm. Os compostos orgânicos foram detectados por várias técnicas, principalmente cromatografia gasosa e líquida, sequenciada por espectrometria de massas. Para acompanhar o envelhecimento das membranas, em seis meses de uso, foi empregada microscopia de força atômica, através da medição de porosidade e de rugosidade superficiais. Em termos médios, nas três faixas de concentrações testadas, o metil paration foi o composto mais eficientemente removido pelas membranas em todos os testes realizados, com 59,82 % de rejeição pela membrana UE-50, 43,97 % pela membrana XN-40 e 56,12 % pela TS-80. O TCE foi rejeitado 28,42 %, 23,87 % e 21,42 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. O naftaleno, foi rejeitado 20,61 %, 14,85 % e 12,63 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. Para o carbofurano, a percentagem de rejeição pelas membranas UE-50, XN-40 e TS-80 foi, respectivamente, de 4,51 %, 4,88 % e 2,92 %. Dentre todas as membranas testadas, a membrana de polisulfona UE-50, de ultrafiltração, produziu a melhor eficiência na rejeição de metil paration, tricloroetileno e naftaleno, com 59,82 %, 28,43 % e 20,61 % de rejeição, na ordem. A membrana de poliamida-uréia TS-80, de nanofiltração, proporcionou maior rejeição (56,12 %) que a membrana de poliamida XN-40, de nanofiltração (43,97 %), para o metil paration. Ao contrário, a membrana XN-40 mostrou uma rejeição maior (23,87 %) que a TS-80 para o tricloroetileno (21,42 %). Para o naftaleno, a membrana XN-40 também mostrou uma rejeição (14,85 %) maior que a TS-80 (12,63 %). A eficiência de rejeição do carbofurano foi a menor de todos os compostos ensaiados, independente da membrana. Se for assumido que a membrana de ultra deverá ser seguida pela de nanofiltração, a eficiência conjunta UE-50 + XN-40 será, em termos médios, para o naftaleno, carbofurano, tricloroetileno e metil paration, respectivamente, 32,24%, 9,19%, 45,60% e 77,44%. Para o conjunto UE-50 + TS-80 será de: 30,64%, 7,29%, 43,92% e 83,51%, não havendo diferenças estatisticamente significantes entre os dois conjuntos. Nos testes de pré-tratamento por oxidação do carbofurano, observou-se a formação do carbofurano hidrolisado e mais dois sub-produtos principais, SP-1 e SP-2, que foram rejeitados, 47,85 % e 92,80 %, respectivamente, pela membrana XN-40. Na verificação das perdas das características morfológicas pelo uso prolongado das membranas, sob ataque de compostos orgânicos em baixa concentração ("envelhecimento") verificou-se que a rugosidade (0, 3 e 6 meses) e a porosidade (0, 3 e 6 meses) foram consideravelmente alteradas. A porosidade da membrana XN-40 aumentou 42,86% e a da membrana TS-80 aumentou 34,57%, quando imersas por 3 meses. A rugosidade das membranas XN-40 e TS-80 nos testes de imersão por 3 meses, aumentou 5,37% e 291% respectivamente. Nos testes de imersão em 6 meses, o aumento da porosidade das membranas XN-40 e TS-80 foi de 29,67% e 18,52% respectivamente, enquanto que a rugosidade aumentou 25,27% e 155% para as mesmas. Conclui-se que membranas de nanofiltração poliméricas necessitam de prétratamentos para rejeitar, com segurança, e colocar dentro dos padrões de potabilidade, águas contaminadas com os compostos orgânicos tipo testados e que seu uso prolongado irá afetar as suas características de rejeição dos contaminates.
Resumo:
A Febre Reumática (FR) é uma doença com significativa prevalência na população de pacientes em idade escolar. Constitui-se na principal causa de cardiopatia crônica em adultos jovens em países em desenvolvimento. A prevenção é de fácil manejo terapêutico, embora com reduzido índice de adesão. Até o momento, a melhor forma de evitarmos as seqüelas cardíacas é através da identificação e tratamento precoces e a manutenção de uma adequada profilaxia secundária. São raras as publicações referentes ao acompanhamento da profilaxia secundária após a alta hospitalar. O objetivo deste trabalho é avaliar a adesão ao acompanhamento dos pacientes com FR internados no Hospital de Clínicas de Porto Alegre, no período de janeiro de 1977 a junho de 1999. A coorte foi constituída de 112 indivíduos com FR que tinham indicação de retorno ao ambulatório após a alta. Quarenta pacientes (35,7%) foram atendidos no primeiro episódio de FR. A maioria apresentou seqüelas cardíacas (52,7%), ocorrendo registro de casos a partir de 8 anos de idade. As manifestações clínicas nos 40 pacientes atendidos no primeiro episódio de FR foram: 21 (52,5%) com cardite, 30 (75%) com artrite e 14 (35%) com coréia. Apenas 77 (68,7%) retornaram ao ambulatório após a alta e somente 13 (21% pelo método de Kaplan-Meier) mantiveram acompanhamento por no mínimo 5 anos. A idade menor ou igual a 16 anos foi fator preditivo de maior tempo de acompanhamento. Local de procedência, presença de seqüelas e renda familiar não mostraram associação significante. A interrupção do acompanhamento pela maioria dos pacientes e a verificação do pior prognóstico cardíaco nos pacientes com recidivas sugere a necessidade da adoção de um programa de orientação e busca para garantir a efetividade da profilaxia secundária.
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.
Resumo:
A competitividade das empresas apresenta forte ligação com a qualidade do relacionamento com o cliente. Para competir em tempo real é preciso dotar a empresa de meios que permitam conhecer e relacionar-se de forma cada vez mais eficiente com os clientes. O uso intensivo da tecnologia é fator que contribui para que o relacionamento com o cliente se torne mais efetivo. CRM (Customer Relationship Management) faz uso da tecnologia de informação com o objetivo de desenvolver e gerenciar relações entre empresas e seus clientes, de forma individualizada e mutuamente benéfica. O presente trabalho refere-se à implementação de um sistema CRM, abrangendo as etapas de seleção da solução de CRM, definição do organograma, cronograma e metodologia de trabalho, redesenho dos processos de atendimento ao cliente e configuração do software. Também é objeto deste trabalho a verificação do nível de satisfação do cliente resultante. O estudo foi desenvolvido junto a uma empresa do setor petroquímico, caso pioneiro de implantação de CRM no país, considerando o segmento de mercado em análise. O texto discute a relação existente entre um sistema de CRM e a satisfação do cliente, apresentando os resultados de uma pesquisa de satisfação aplicada aos clientes da empresa em estudo.
Resumo:
Este trabalho constitui-se em um estudo acerca da construção do conhecimento do tema Marketing Metrics dentro da disciplina de marketing, centrando-se na linha de pesquisa de Valor do Cliente, uma das cinco principais que estão sendo trabalhadas sobre o tema. Assim, o autor deste trabalho realizou um estudo exploratório dividido em duas etapas, uma de análise da bibliografia acerca do Marketing Metrics em diversos centros acadêmicos e outra de verificação empresarial para analisar o grau de conhecimento e avaliação da importância do tema na visão empresarial. Ao final, o autor chega a um modelo sobre a construção de conhecimento do tema pesquisado e suposições a serem futuramente testadas, incluindo a influência de fatores como a natureza do negócio em que está inserida, o tamanho da base de clientes, a necessidade de uso do produto ou serviço, as barreiras de saída e o tamanho da empresa no grau de necessidade de relacionamento com os clientes, bem como a influência deste na busca do conhecimento acadêmico.
Resumo:
A rapidez com que as informações atualmente são processadas nas empresas, associada à necessidade de adequação às tendências impostas pelo mercado e à introdução sempre crescente de novos recursos tecnológicos, caracteriza o cenário sobre o qual deve ser analisada a escolha da estratégia de produção para alcançar competitividade. A necessidade de gerenciar a estrutura do conhecimento empresarial (aspectos internos) e sua vinculação com a formação da estratégia de produção, assim como a necessidade de empregar métodos de inteligência competitiva (captura de informações externas), são aspectos imprescindíveis a serem considerados na complexa atividade de administar as empresas na atualidade. O problema principal tratato nesta pesquisa é o de determinar a importância que a gestão do conhecimento e a inteligência competitiva assumem na estratégia de produção em curtumes, incluindo a verificação se os sistemas de informação que suportam estas atividades estão alinhados com a estratégia empresarial. Pela exploração de diversos aspectos da indústria coureira em dois estudos de caso, e principalmente relacionando os elementos observados com as possibilidades atuais de utilização dos recursos da tecnologia de informação nas áreas de gestão do conhecimento e inteligência competiva, foi observado que estas são complementares e influenciam na estratégia de produção. Complementarmente, foi constatado que os sistemas de informação, ao constituirem instrumental básico para estas atividades, necessitam estar comprometidos em suas funcionalidades com a estratégia empresarial.
Resumo:
Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.
Resumo:
A presente dissertação insere-se no contexto de um projeto global de pesquisa, em desenvolvimento no GESID-PPGA/EA/UFRGS, com a cooperação de algumas universidades estrangeiras. Tal projeto tem como tema a percepção do processo decisório individual e a influência da cultura nacional e da experiência decisória. Para estudar a inter-relação destes assuntos é preciso, antes de mais nada, elaborar um conjunto de instrumentos que permitam investigar a percepção das pessoas sobre a tomada de decisão. Este é o objetivo principal do presente trabalho, que refere-se à primeira fase desse projeto global: a partir da literatura, e do conhecimento de um grupo de pesquisadores, conceber e desenvolver um conjunto de instrumentos (quantitativos e qualitativos) válidos para estudar a decisão. E ainda estabelecer uma metodologia de aplicação desse instrumental, a qual possa determinar uma seqüência (ordem) e forma de aplicação mais adequada. Para tanto, primeiramente foram definidas as 3 questões de pesquisa, que nortearam o desenvolvimento dos instrumentos de pesquisa, as quais deverão ser investigadas no contexto do projeto global de pesquisa, e que podem ser resumidas da seguinte forma: (1) Independentemente da cultura nacional ou do nível de experiência decisória dos indivíduos é possível identificar fatores comuns (passos, princípios, insights) a respeito da forma como as pessoas percebem o processo decisório individual, especialmente se tomado o modelo de processo decisório da “Racionalidade limitada” de Simon (1947) como padrão de comparação? (2) A cultura atua como fator de diferenciação na percepção do processo decisório individual? (3) A Experiência Decisória (vivência) dos indivíduos influencia a forma como eles percebem o processo decisório individual? A definição destas 3 questões de pesquisa possibilitou a concepção dos instrumentos, nos quais posteriormente foi realizada uma validação de conteúdo (por uma comissão de juízes) e de sua seqüência de aplicação (testando-se diferentes ordens), bem como a verificação da sua fidedignidade (através do Teste-reteste). Com este processo obteve-se os seguintes resultados: (1) projeto global consolidado; (2) conjunto de instrumentos de pesquisa concebido e validado; (3) seqüência de aplicação do instrumental definida e validada; (4) quadro de construtos definido fornecendo subsídios para a definição de um protocolo de análise de dados; (5) concepção de um método para verificação da "contaminação" de instrumentos de pesquisa.
Resumo:
Existe um interesse crescente pelo controle das condições de cultivo necessárias para a expansão de células-tronco de indivíduos adultos devido ao grande potencial para o desenvolvimento de pesquisa básica e de aplicações terapêuticas apresentado pelas mesmas. Atualmente, a literatura apresenta poucos trabalhos que detalhem a biologia da célula-tronco mesenquimal (MSC) de camundongo, revelando a necessidade de estudos voltados para este tema. Quatro culturas de longa duração foram produzidas com células da medula óssea de camundongos normais e IDUA knock-out através de técnicas de cultivo relativamente simples. Estas culturas puderam ser mantidas por até 40 passagens, e demonstraram ser morfologicamente homogêneas. Células dessas culturas puderam ser induzidas a diferenciarem-se ao longo de vias de diferenciação adipogênica e osteogênica, e revelaram ser capazes de suportar o crescimento e a proliferação de células-tronco hematopoiéticas. Por apresentarem tais características funcionais, essas populações celulares foram operacionalmente definidas como MSCs. Quando o repertório de marcadores de superfície dessas células foi observado por meio de citometria de fluxo, verificou-se que elas eram positivas para Sca-1, CD29, CD44 e CD49e, e eram negativas para CD11b, CD13, CD18, CD19, CD31, CD45, CD49d e Gr-1 Este perfil de moléculas de superfície assemelha-se àquele descrito para a MSC humana, e indica ausência de contaminantes hematopoiéticos. Uma verificação preliminar da freqüência da MSC na medula óssea de camundongo foi realizada, trazendo a estimativa de que uma MSC está presente numa faixa de 11.000 – 27.000 células. Finalmente, os dados revelaram que não há diferenças imediatamente perceptíveis entre camundongos normais e do modelo murino de MPS I no tocante à MSC, o que indica que os trabalhos futuros visando à correção da deficiência de α-L-iduronidase neste modelo utilizando a MSC são viáveis. O estabelecimento da metodologia para o cultivo e expansão da MSC murina através de técnicas simples vem preencher uma lacuna existente no campo dos modelos experimentais animais, trazendo novas perspectivas para o desenvolvimento de estratégias de terapia celular/genética em modelos experimentais murinos.