874 resultados para eficácia coletiva
Resumo:
O presente estudo tem como objetivo desenvolver uma reflexão sobre o uso dos indicadores sociais sintéticos no sentido de formular e implementar políticas públicas na área social, especificamente em relação ao caso brasileiro, tomando como referência principal o Índice de Desenvolvimento Humano (IDH). Nossa análise partiu da premissa de que, pelos menos nas últimas três décadas, os indicadores sociais têm sido amplamente utilizados no Brasil com o objetivo de justificar e orientar ações públicas direcionadas para as tentativas de equacionamento das mais variadas questões sociais, tais como a pobreza e a concentração de renda. Principalmente a partir dos anos 1990 os dados e apontamentos de alguns indicadores sociais sintéticos, especialmente o IDH, parecem que vêm sendo utilizados como justificativa principal ou até mesmo única para a priorização de determinadas políticas públicas voltadas para a área social. A partir dessa reflexão, nossa análise buscou avaliar, com um olhar mais apurado sobre o IDH, a existência de falhas e limites inerentes aos indicadores sintéticos, que poderiam estar comprometendo sua eficácia no sentido de refletir dados mais aproximados com a realidade social brasileira. Assim, pretendemos apontar que a prática de priorização de políticas a partir dos dados desses indicadores sintéticos, que parece ser constante no Brasil, acaba se tornando bastante preocupante ou, algumas vezes, talvez inadequada. Do ponto de vista metodológico, este estudo dependeu basicamente de uma pesquisa bibliográfica e de uma pesquisa documental, a partir das quais decompomos nossas análises em reflexões sobre a formação e evolução dos indicadores sociais, sobre os aspectos filosóficos e metodológicos do IDH e sobre as possíveis falhas e limites inerentes aos indicadores, com base na análise do IDH e dos índices parciais que o compõem (índices de Renda, Educação e Longevidade). A seguir, para mostrar que a prática de priorização de políticas sociais a partir de indicadores parece constante no Brasil, ilustramos os casos selecionados de determinados estados e municípios brasileiros.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
O presente trabalho aborda o movimento social conhecido como Marcha da Maconha, buscando uma análise compreensiva de suas características a partir de revisão teórica e pesquisa etnográfica. Apresenta inicialmente uma revisão bibliográfica sobre o fenômeno das drogas, com o objetivo específico de contextualizar o debate em que o movimento se insere. Busca-se enfatizar a polissemia do termo droga, os aspectos culturais, sociais, econômicos e políticos da história da proibição de algumas drogas e o atual cenário de modelo proibicionista. A partir deste enquadramento, o trabalho apresenta um histórico da manifestação Marcha da Maconha no Brasil, enfatizando seus princípios norteadores, modo de organização, demandas e identidade. Busca-se compreender, lançando mão da abordagem teórica de autores como Touraine e Melucci, os fatores de mobilização e pertencimento construídos na manifestação que marcam experiências na vida social. Apresenta então resultados da pesquisa de campo junto à rede de ativistas da manifestação na cidade do Rio de Janeiro no ano de 2013. Partindo da diversidade e das tensões internas e históricas da organização, o trabalho propõe mapear e caracterizar os grupos engajados, evidenciando as diferentes interpretações sobre o próprio movimento, perfis de ativismo e militância, interesses, enfoques e estratégias.
Resumo:
Atualmente novos métodos de exercício físico vêm sendo pesquisados no campo da promoção da saúde, prevenção e tratamento de doenças. Uma estratégia inovadora e com expressiva aceitação no meio científico é a utilização da tecnologia de realidade virtual nas sessões terapêuticas para pessoas com distúrbios neurológicos e treinamento preventivo contra quedas em idosos, apresentando resultados promissores, motivando novos desenhos de estudos nessa área, porém com indivíduos de características clínicas diferenciadas. O objetivo da presente dissertação é abordar a tecnologia de realidade virtual, assim como seus dispositivos, na avaliação do equilíbrio corporal e treinamento de idosos. O artigo de confiabilidade da medida faz uma abordagem inovadora da medida quantitativa da estabilidade corporal, sendo esta avaliada por um instrumento de baixo custo e validado em relação ao padrão-ouro. Nesse artigo concluiu-se que o instrumento testado apresenta confiabilidade. O experimento controlado e randomizado com duplo cegamento é apresentado no formato de artigo original, contendo um resumo, introdução, finalizada pelo objetivo do estudo, que esclarece o que será estudado; depois segue a parte de materiais e métodos que descreve a amostra, as intervenções, as avaliações das respostas dos participantes e a análise dos dados, mostrando como foi realizado o estudo; seguido dos resultados, discussão, conclusão e referências. Nesse experimento concluiu-se que o treinamento com realidade virtual foi capaz de melhorar a autonomia funcional de idosas para sentar.
A legitimação bioética e jurídica das diretivas antecipadas sobre a terminalidade da vida no Brasil.
Resumo:
Este trabalho volta-se ao estudo das diretivas antecipadas sobre o fim da vida na relação médica no Brasil. Pretende-se verificar a legitimidade bioética e a legitimidade e possibilidade jurídicas da prática das diretivas antecipadas sobre o fim da vida como objetivo central. Busca-se aferir a adequação, bioética e jurídica, das diretivas antecipadas como veículo próprio de autodeterminação da pessoa diante de suas possibilidades existenciais e da formulação de seu projeto de vida e de morte digna. Ademais, especificamente, procura-se determinar a possibilidade jurídica das diretivas antecipadas no Ordenamento brasileiro: a coerência com as garantias constitucionais e a existência de institutos aptos a tal prática. Propõe-se sustentar a legitimação jurídica das diretivas antecipadas no Brasil, indicando possíveis caminhos às soluções interpretativas no plano jurídico, e os efeitos na relação médica a partir, também, das considerações bioéticas. Com essa finalidade, pretende-se averiguar a compatibilidade entre as normas deontológicas de origem bioética e as normas jurídicas de status constitucional de proteção à pessoa humana. A tese também propõe a análise do contexto em que as diretivas antecipadas são utilizadas para (i) problematizar as ideias de capacidade e competência para a prática desse ato de autonomia pessoal, (ii) problematizar sobre como a perspectiva familiar, a perspectiva técnica dos profissionais da saúde e a perspectiva do Poder Judiciário contingenciam a liberdade desse ato e (iii) aferir a eficácia desses atos no espaço clínico e familiar. Para tanto, será empreendido estudo teórico mediante pesquisa bibliográfica e de referências, que levantará as publicações, nacionais e internacionais, sobre os temas da tese. O levantamento bibliográfico compreenderá, preferencialmente, obras sobre filosofia, ética, bioética e direito, que permitam a análise das questões teóricas envolvidas no estudo. O desenvolvimento do trabalho estrutura-se em três capítulos. O primeiro pretende estabelecer as bases conceituais e os fundamentos legais das diretivas antecipadas. O segundo capítulo apresentará a sistematização entre os valores bioéticos e jurídicos que se relacionam a tal prática. O capítulo três apresentará as questões fundamentais pertinentes à validade e eficácia da prática das diretivas antecipadas no Brasil. A partir das premissas construídas ao longo do desenvolvimento, o desfecho da pesquisa pretende reforçar seu argumento central demonstrando, então, a legitimação bioética e a legitimidade e a possibilidade jurídicas das diretivas antecipadas sobre o fim da vida no atual contexto brasileiro.
Resumo:
A esporotricose é uma micose subcutânea, crônica, causada por espécies termo-dimórficas do complexo Sporothrix schenckii. Esta micose apresenta diferentes manifestações clínicas sendo mais comum a forma linfocutânea. Casos graves causados por Sporothrix brasiliensis têm sido descritos recentemente, exigindo um tratamento prolongado com antifúngicos de alta toxicidade como a anfotericina B-desoxicolato ou suas versões menos tóxicas, mas de alto custo. Neste trabalho visamos testar in vitro e in vivo a eficácia de uma nova formulação intravenosa de anfotericina B poliagregada (P-AmB) e testar in vivo sua versão semi-sólida (AmB tópica), comparando-a com o itraconazol (ITC) e a anfotericina B-desoxicolato (D-AmB). Ensaios de susceptibilidade in vitro com S. brasiliensis mostraram que esta espécie é suscetível aos antifúngicos testados. Para os testes de eficácia in vivo foram estabelecidos um modelo de esporotricose disseminada e outro de esporotricose subcutânea, causados por S. brasiliensis. No modelo de esporotricose disseminada camundongos BALB/c foram inoculados intravenosamente com leveduras de S. brasiliensis e, 72 h pós-infecção, tratados sob diferentes regimes terapêuticos: i) uma monoterapia de ITC, D-AmB ou P-AmB; ii) uma combinação terapêutica entre D-AmB e ITC ou P-AmB e ITC; iii) um regime de pulso com D-AmB ou P-AmB. A sobrevivência (n= nove) e a carga fúngica em órgãos internos (n= três, no mínimo) foram avaliadas, sendo observado que o regime de pulso com D-AmB ou P-AmB foi o mais efetivo em prolongar a sobrevivência dos animais e reduzir a carga fúngica nos órgãos, seguido pela combinação terapêutica, porém o tratamento com D-AmB e ITC foi a combinação mais efetiva. A monoterapia com ITC e P-AmB e D-AmB foram menos eficazes, sendo corroborados pelas análises histopatológicas. Ensaios de toxicidade in vivo com as diferentes drogas revelaram que ITC e D-AmB induziram a uma toxicidade hepática e renal nos animais, respectivamente, mas P-AmB não induziu a nenhuma toxicidade. Nos ensaios de citoxicidade in vitro foi observado que ITC foi a menos citotóxica e hemolítica e a mais seletiva das drogas testadas, seguida por P-AmB, que foi menos citotóxica e mais seletiva que D-AmB. No modelo de esporotricose subcutânea camundongos da mesma linhagem foram inoculados por via subcutânea com conídios de S. schenckii e de S. brasiliensis (n=9/ grupo). Os animais infectados com S. brasiliensis apresentaram regressão das lesões primárias e disseminação. Usando o modelo de esporotricose subcutânea murina causada por S. brasiliensis testamos peliminarmente a formulação tópica de AmB poliagregada, que reduziu a extensão das lesões de animais infectados. Este é o primeiro trabalho a avaliar diferentes regimes de tratamento da esporotricose disseminada murina causada por S. brasiliensis utilizando ITC, D-AmB e uma nova formulação menos tóxica de anfotericina B poliagregada. O estudo revelou que o regime de pulso foi o mais eficaz para as formulações intravenosas de AmB. Nosso estudo também estabeleceu pioneiramente um modelo de esporotricose subcutânea induzido por S. brasiliensis, que se revelou uma ferramenta útil para comparar a virulência das espécies do complexo S. schenckii e para testar a eficácia de antifúngicos contra essas novas espécies.
Resumo:
2008
Resumo:
2005
Resumo:
Projeto de Pós-Graduação/Dissertação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Ciências Farmacêuticas
Resumo:
Projeto de Pós-Graduação/Dissertação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Medicina Dentária
Resumo:
Dissertação, Mestrado, Gestão das Organizações de Economia Social, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2013
Resumo:
Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.
Resumo:
Dissertação de mest., Supervisão, Faculdade de Ciências Humanas e Sociais, Univ. do Algarve, 2008
Resumo:
O cancro é uma das mais conhecidas e temidas doenças existentes e, como tal, existe um grande interesse no desenvolvimento de métodos de tratamento das afeções tumorais. Os grandes avanços da quimioterapia têm dado ótimos resultados no tratamento do cancro. Contudo, a administração de fármacos antineoplásicos não garante uma elevada eficácia pois os tecidos tumorais apresentam propriedades estruturais que dificultam o transporte de agentes terapêuticos, como a disposição heterogénea dos vasos sanguíneos, a ausência de sistema linfático funcional, as inúmeras barreiras de transporte que o fármaco enfrenta até chegar às células alvo ou a disparidade da expressão de antigénios e recetores nas próprias células. Para além disso, os agentes quimioterapêuticos exibem elevada toxicidade não específica, afetando tanto as células tumorais como as células saudáveis, o que resulta frequentemente em severos efeitos secundários. Se a dose for reduzida para diminuir estes efeitos, a eficácia do tratamento diminuirá também; por outro lado, o aumento da dose, apesar de permitir um melhor controlo do crescimento do tumor, leva também a uma maior toxicidade nos tecidos saudáveis. Para contornar este efeito têm-se desenvolvido diferentes tipos de sistemas de libertação de fármacos com o objetivo de maximizar o direcionamento para os tumores e minimizar a toxicidade sistémica. Entre estas alternativas figuram os chamados smart polymers, que são macromoléculas que sofrem rápidas e reversíveis mudanças na sua estrutura em resposta a estímulos, os quais correspondem geralmente a pequenas alterações no meio, como pH, temperatura, incidência de radiação ou presença de determinadas substâncias químicas. Assim, associando um fármaco a um destes polímeros, em geral recorrendo a técnicas de encapsulação, é possível fazer com que a libertação do fármaco ocorra apenas nas células tumorais, seja por estas apresentarem as características necessárias para alterar a estrutura dos polímeros (acidez ou temperatura diferente das células saudáveis, por exemplo) ou por se conferir externamente à zona do tumor essas mesmas características (por exemplo, incidindo radiação na zona afetada). Os smart polymers têm outras vantagens. Os fármacos conjugados com estes polímeros têm tendência para se acumularem nos tecidos tumorais devido aos altos efeitos de permeabilidade e retenção nestas células e também demonstram menor toxicidade sistémica comparativamente com o fármaco livre. Além disso, os sistemas de libertação poliméricos podem permitir o aumento do tempo de semivida plasmático e da solubilidade dos fármacos de baixo peso molecular, assim como a sua libertação controlada. Com este trabalho pretende-se estudar mais profundamente de que forma é que a utilização dos smart polymers pode aumentar a eficácia e diminuir a toxicidade sistémica das terapias anticancerígenas no tratamento de afeções tumorais.