95 resultados para inteligência computacional
Resumo:
Objetivou-se validar o aplicativo computacional SEEDSOLVE para previsão das perdas de germinação e vigor de sementes ortodoxas armazenadas. A validação foi realizada comparando-se valores calculados com valores experimentais das perdas de germinação e vigor de sementes de três cultivares de milho e de soja armazenadas em laboratório, durante um período de 210 dias. Sementes de milho e soja, com três níveis de grau de umidade (11, 13 e 15% para o milho e 9, 11 e 13% para a soja), foram acondicionadas em embalagens de plástico polietileno e armazenadas em câmaras BOD sob três temperaturas (15, 25 e 35ºC). Os resultados das comparações dos dados calculados e experimentais de germinação e vigor durante o armazenamento de sementes dos três lotes de cada espécie, sob diferentes condições de armazenagem, permitiram concluir que o SEEDSOLVE prediz com razoável precisão as perdas de germinação e vigor de sementes de milho e de soja armazenadas.
Resumo:
Este artigo é uma tentativa de delinear as principais características da pesquisa numa nova área de estudos a chamada Inteligência Artificial (AI). Os itens 1 e 2 constituem um rápido histórico da AI e seus pressupostos básicos. O item 3 trata da teoria de resolução de problemas, desenvolvida por A. Newell e H. Simon. O item 4 procura mostrar a relevância da AI para a Filosofia, em especial para a filosofia da Mente e para a Teoria do Conhecimento.
Resumo:
O artigo aborda problemas filosóficos relativos à natureza da intencionalidade e da representação mental. A primeira parte apresenta um breve histórico dos problemas, percorrendo rapidamente alguns episódios da filosofia clássica e da filosofia contemporânea. A segunda parte examina o Chinese Room Argument (Argumento do Quarto do Chinês) formulado por J. Searle. A terceira parte desenvolve alguns argumentos visando mostrar a inadequação do modelo funcionalista de mente na construção de robots. A conclusão (quarta parte) aponta algumas alternativas ao modelo funcionalista tradicional, como, por exemplo, o conexionismo.
Resumo:
RESUMO: A presente investigação questiona a essência teo-lógica dos futuros contingentes. Para o efeito, analisa-se, primeiramente, a argumentação segundo a qual, sob certas condições lógicas, teológicas, ontológicas e cosmológicas antinecessitantes, detetadas por G. W. Leibniz (conciliando a posição de St. Agostinho com a de L. Molina e W. Ockham), a abertura contingente do futuro parece ser compatível com o regime das "verdades contingentes pré-determinadas", regime enquadrado teologicamente pelo princípio do "futuro melhor" ou do "único futuro verdadeiro". No entanto, os futuros contingentes incitam, com e contra Aristóteles, ao desenvolvimento de uma lógica temporal e plurivalente, ao modo de J. Łukasiewicz ou A. Prior. Essa lógica garante a abertura do futuro sem o oneroso custo metafísico da adesão a uma teo-lógica omnideterminante. A crítica do determinismo lógico, daí resultante, afigura-se mais coadunável com as condições pós-metafísicas inerentes à episteme agnósticacontemporânea, mas, nesse caso, a abertura do futuro implicaria uma profunda redefinição das próprias ideias e funções de "Deus", "matéria", "história" e "verdade".
Resumo:
O artigo discute as motivações e objetivos que levaram o Brasil a participar de negociações com a Argentina e o Chile, entre 1907 e 1915, para a assinatura de um tratado de "cordial inteligência política", conhecido como ABC. Com vistas a situar essa iniciativa no contexto internacional do período, examina a configuração do subsistema americano bem como o papel do pan-americanismo. A fim de identificar seu significado político, analisa os fundamentos da política externa de Rio Branco (1902-1912) e as mais relevantes interpretações do ABC na historiografia, utilizando como recursos metodológicos os conceitos de sistemas de Estados e de hegemonia.
Resumo:
As teorias de relações internacionais não são isentas nem imparciais, visto que estão vinculadas a interesses, valores e padrões de conduta das sociedades onde são elaboradas e descartam esses fatores de outras sociedades. As teorias que servem ao primeiro mundo não são necessariamente convenientes para os países emergentes. O artigo propõe substituir teorias por conceitos aplicados ao estudo das relações internacionais. Os conceitos expõem o lastro nacional ou regional sobre os quais se assentam. A experiência brasileira corresponde ao campo de observação desta pesquisa. O conjunto de conceitos elaborados sugere outros estudos de caso. A nova abordagem das relações internacionais visa prover explicação, orientar projetos de pesquisa e formar a inteligência dirigente.
Resumo:
O estudo analisa a inserção do crime organizado transnacional na agenda de segurança dos Estados Unidos e sua qualificação como uma das principais ameaças contemporâneas à ordem internacional pós Guerra Fria. Os resultados apontam a importância dos dois mandatos de Clinton (1993-2001) neste processo, cuja maior expressão é a Presidential Decision Directive 42, ao viabilizar, inclusive, a reorganização das estruturas policiais, militares e de Inteligência do país para combater esta ameaça. Conclui-se que a década de 1990 é o momento determinante da identificação norte-americana desta criminalidade como uma ameaça inédita, estrangeira e de grandes proporções.
Resumo:
Foram estimados os coeficientes de repetibilidade das características de produção de matéria seca (PMS), altura das plantas no momento do corte (APC), tolerância a doenças (TD) e altura no florescimento (AF), em genótipos de alfafa. As características foram avaliadas em 92 genótipos nos anos 2004 e 2005, durante 11 cortes, feitos nos períodos das águas (novembro a março, cinco cortes) e da seca (abril a setembro, seis cortes). O experimento foi conduzido em blocos ao acaso, com duas repetições. As estimativas dos coeficientes de repetibilidade foram obtidas por diferentes métodos de análises. Também realizou-se estudo da estabilização genotípica. Todas as análises estatísticas foram realizadas com auxílio do aplicativo computacional GENES. No período da seca, apenas dois cortes foram suficientes para se ter certeza de 85% na previsão do valor real para a PMS, sendo necessários cinco cortes para se obter a mesma confiabilidade nesta característica no período das águas. De maneira geral, no período das águas foi necessário maior número de avaliações para obter igual veracidade da comprovação genotípica. Pela estabilização genotípica, observouse aumento da confiabilidade com a eliminação de alguns cortes, chegando a até 97% com apenas três cortes, excluindose dois cortes iniciais e um final. As variáveis PMS e APC, no período das águas, apresentaram maiores estimativas do coeficiente de repetibilidade do que TD e AF.
Resumo:
Bovinos jovens são frequentemente acometidos por hérnias umbilicais. Neste trabalho, avaliou-se a ocorrência e estabeleceu-se o tratamento cirúrgico para hérnias umbilicais em bovinos jovens, empregando 78 bezerros distribuídos em seis grupos. Em GI e GIV, na laparorrafia, utilizou-se sutura jaquetão; em GII e GV, jaquetão modificado e, em GIII e GVI, sutura separada simples com pontos de relaxamento. Em GI, GII e GIII utilizou-se fio de algodão e, em GIV, GV e GVI, de náilon. Dados não paramétricos, envolvendo a recuperação dos animais e sua independência ou associações com o padrão de sutura foram analisados pelo teste do Qui-quadrado e Exato de Fisher, fazendo-se uso do programa computacional Statistical Analysis System, a 5% (p < 0,05). Os demais resultados foram analisados descritivamente. A ocorrência de hérnia umbilical em bovinos foi expressiva e a herniorrafia, empregando-se fio de algodão, apresentou maiores complicações pós-operatórias; porém a maioria dos animais recuperou-se. O fio e o padrão de sutura, manejo pós-operatório, resposta individual e o tamanho do anel herniário influenciam na reabilitação dos animais e na redução das complicações pós-operatórias.
Resumo:
Os objetivos desta pesquisa foram analisar e quantificar a influência da escala de produção no impacto econômico da mastite em rebanhos bovinos leiteiros. A pesquisa foi realizada, por meio de simulação, no sistema computacional CU$TO MASTITE, com rebanhos leiteiros de 50, 100 e 150 vacas em lactação. Foram consideradas como de prevenção as despesas com monitoramento (cultura e antibiograma, CCST e CCSI), pré e pós dipping, vacinação, tratamento de vacas secas e manutenção de ordenhadeira. Como medidas curativas, consideraram-se os tratamentos com casos clínicos, cuja percentagem foi de 7% das vacas em lactação. O impacto da mastite foi estimado como sendo o total de perdas, acrescido das despesas com prevenção e tratamento de casos clínicos. O aumento da escala de produção resultou em menor impacto econômico da mastite por vaca em lactação. Quando se analisou o efeito da escala de produção, os maiores responsáveis pelo impacto econômico foram, em ordem decrescente, as perdas com descarte de leite, o tratamento curativo de animais acometidos clinicamente e a redução da produção de leite. As despesas com tratamento preventivo representaram, no máximo, 11,7% do impacto econômico, o que demonstra vantagens em investir nessa prática, que irá contribuir significativamente para diminuição do impacto econômico da mastite
Resumo:
Muitos têm argumentado que as sociedades industriais estão se tornando cada vez mais dependentes da tecnologia e, conseqüentemente, mais vulneráveis às falhas tecnológicas. Não obstante a difusão da tecnologia computacional, pouco é conhecido a respeito das falhas do computador, exceto, talvez, as que são muito comuns. Este artigo analisa as fontes de insegurança do computador e revê a extensão e o custo dos computadores inconfiáveis. Ao contrário dos articulistas anteriores, os autores argumentam que os computadores digitais são inerentemente não confiáveis por duas razões: primeira, são mais propensos a falhas totais, ao invés de parciais; e segunda, sua enorme complexidade significa que jamais poderão ser completamente testados antes de serem colocados em uso. Os autores descrevem em seguida várias tentativas institucionais para melhorar a confiabilidade, bem como possíveis soluções propostas pelos cientistas da computação, mas concluem que até agora nenhuma foi adequada. Em conseqüência, recomendam que os computadores não devam ser utilizados em aplicações onde haja risco de vida.
Resumo:
Este artigo tem por objetivo desenvolver um algoritmo para representar a dinâmica das interações que conduzem à formação de conexões entre indivíduos dentro de uma organização. Por meio de um procedimento de simulação computacional, utiliza-se um critério matemático para a definição da opinião de um indivíduo sobre outro. O intuito é identificar como diferentes características, em especial o consenso sobre as competências de um indivíduo e o peso atribuído aos valores pessoais, influem na estrutura das redes sociais. Os resultados do modelo mostram que, quando o consenso é alto, a rede é mais densa, conduzindo a relacionamentos mais complexos dentro da organização, podendo implicar sinergias e até mesmo inércia. De modo contrário, quando o consenso é baixo, conflitos em pequenos grupos podem constituir barreiras para a comunicação entre os indivíduos.
Resumo:
OBJETIVO: Comparar "softwares" específicos para análise de dados de levantamentos amostrais complexos, em relação às características: facilidade de aplicação, eficiência computacional e exatidão dos resultados. MÉTODOS: Utilizaram-se dados secundários da Pesquisa Nacional sobre Demografia e Saúde, de 1996, cuja população-alvo foram as mulheres de 15 a 49 anos de idade, pertencentes a uma subamostra probabilística selecionada em dois estágios, estratificada, com probabilidade proporcional ao tamanho no primeiro estágio. Foram selecionadas da subamostra as regiões Norte e Centro-oeste do País. Os parâmetros analisados foram: a média, para a variável idade, e a proporção, para cinco outras variáveis qualitativas, utilizando os "softwares" Epi Info, Stata e WesVarPC. RESULTADOS: Os programas apresentam duas opções em comum para importação de arquivos: o dBASE e arquivos tipo texto. O número de passos anteriores à execução das análises foram 21, 11 e 9, respectivamente para o Epi Info, Stata e WesVarPC. A eficiência computacional foi alta em todos eles, inferior a três segundos. Os erros padrão estimados utilizando-se o Epi Info e o Stata foram os mesmos, com aproximação até a terceira casa decimal; os do WesVarPC foram, em geral, superiores. CONCLUSÕES: O Epi Info é o mais limitado em termos das análises disponíveis, porém ele é simples de usar e gratuito. O Stata e o WesVarPC são bem mais completos nos recursos de análises, porém há a desvantagem do custo. A escolha do programa dependerá principalmente das necessidades específicas do usuário.
Resumo:
OBJETIVO: Avaliar a qualidade do Sistema de Informação do Câncer do Colo do Útero (Siscolo). MÉTODOS: Estudo descritivo sobre a completitude, validade e sensibilidade dos dados no Siscolo no estado do Rio de Janeiro, com base no seguimento de uma coorte de 2.024 mulheres entre 2002 e 2006. As participantes eram residentes em comunidades assistidas pela Estratégia Saúde da Família nos municípios de Duque de Caxias e Nova Iguaçu (RJ). As duas bases de dados do Siscolo, referentes aos exames citopatológicos e aos exames confirmatórios (colposcopia e histopatologia), foram comparadas a dados obtidos em uma base de referência de pesquisa e prontuários médicos. O gráfico de Bland-Altman foi utilizado para analisar as variáveis contínuas. Para o relacionamento entre os bancos de dados foi utilizado o programa computacional Reclink. RESULTADOS: A completitude do sistema foi excelente para os campos "nome da mãe" e "logradouro de residência", boa para "bairro de residência" e péssima para "CEP" e "CPF". Quanto à validade, a sensibilidade do campo "data da coleta" foi de 100% para os exames confirmatórios e de 70,3% para os exames citopatológicos. Já para o campo "resultados dos exames", a sensibilidade foi de 100% em ambos os exames. A sensibilidade do sistema em identificar os exames citopatológicos foi de 77,4% (IC 95%: 75,0;80,0), enquanto para os exames confirmatórios (colposcopia e histopatologia) foi de 4,0% (IC 95%: 0,0;21,3). CONCLUSÕES: Os dados do Siscolo foram considerados de boa qualidade, em particular para os campos relacionados aos exames citopatológicos. O uso dos dados de colposcopia e histopatologia não foi satisfatório devido ao seu escasso registro no sistema.
Resumo:
OBJETIVO: Analisar fatores associados a transtorno de déficit de atenção e hiperatividade em crianças. MÉTODOS: Estudo longitudinal sobre problemas de comportamento em crianças escolares de São Gonçalo, RJ, em 2005. Foram analisados 479 escolares da rede pública selecionados por amostragem por conglomerados em três estágios. Foi utilizada a escala Child Behavior Checklist para medição do desfecho. Foi aplicado um questionário para pais/responsáveis acerca dos fatores de exposição analisados: perfil da criança e da família, variáveis de relacionamento familiar, violências físicas e psicológicas. O modelo regressão log-binomial com enfoque hierarquizado foi empregado para a análise. RESULTADOS: Quociente de inteligência mais alto associou-se inversamente à frequência do transtorno (RP = 0,980 [IC95% 0,963;0,998]). A prevalência de transtorno nas crianças foi maior quando havia disfunção familiar do que entre famílias com melhor forma de se relacionar (RP = 2,538 [IC95% 1,572;4,099]). Crianças que sofriam agressão verbal pela mãe apresentaram prevalência 3,7 vezes maior do que aquelas não expostas a essa situação no último ano (RP = 4,7 [IC95% 1,254;17,636]). CONCLUSÕES: Relações familiares negativas estão associadas aos sintomas de transtorno de déficit de atenção e hiperatividade. Sua associação com quociente de inteligência reitera a importância da base genética e ambiental na origem do transtorno.