924 resultados para Recruitment Bases
Resumo:
As institutions strive to grow their research enterprises, selection and recruitment of faculty is critical. The Council presents strategies for determining a recruitment approach, selecting the appropriate level of faculty to recruit, and targeting specific faculty members. In addition, research explores practices for attracting faculty to the campus and supporting faculty through the transition.
Resumo:
Credit for prior learning programs help students complete degrees more quickly and for less money. This report addresses the challenges of scaling up a credit for prior learning program at the university system level, and explores the delineation of responsibilities between system staff and institutional staff.
Resumo:
Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.
Resumo:
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
Neste trabalho, realizou-se a síntese e a caracterização de quatro novas bases de Tröger. Estes compostos pertencem à classe de heterociclos 2-hidroxifenibenzazóis, que caracterizam-se por apresentar uma forte emissão de fluorescência, devido à reação de transferência protônica intramolecular no estado excitado -ESIPT- por eles sofrrida quando excitados por luz ultravioleta. Os heterociclos sintetizadosapesentam ligações de hidrogênio intramolecular entrte o nitrogênio azólico e a hidroxila fenólica e um granded deslocamento de Stokes, características tíicas de compostos que sofrem a ESIPT. As bases de Tröger, que são quirais, são bem conhecidas como receptores moleculares devido a concavidade que estas moléculas apresentam, Os compostos obtidos são os primeiro exmeplos de bases de Tröger fluorescentes, via ESIP, na literatura, por isso, despertam grande interesse na síntese de sondas biológicas moleculares fluorescentes. A partir da resolução quiral das bases de Tröger, estas potencialmente podem vir a ser utilizadas como indutores quirais e/ou par ao reconhecimento enantiosseletivo do DNA. A resolução quiral foi feita para uma das bases de Tröger sintetizadas.
Resumo:
O trabalho tem por objetivo trazer elementos da corrente filosófica do pragmatismo para a discussão metodológica em economia, particularmente no que diz respeito a teoria da verdade e suas implicações para o debate epistemológico. Após apresentar as contribuições dos pioneiros do pragmatismo William James, John Dewey e Charles S. Peirce e discutir aspectos da obra de W. Quine e Richard Rorty, procuramos identificar influências dessa corrente filosófica em importantes economistas tais como J. M. Keynes, M. Friedman e T. Veblen. Por fim concluímos com algumas reflexões possivelmente úteis para a prática da ciência econômica.
Resumo:
Esta pesquisa discute configurações institucionais ótimas e sugere, nas atuais circunstâncias brasileiras, mecanismos de cooperação inter-institucional, de sorte a maximizar a eficiência de ações conjuntas entre agências regulatórias e de defesa da concorrência, minimizando os custos de coordenação. A pesquisa contém três partes. A primeira discute aspectos teóricos de um sistema de competências complementares entre a autoridade de defesa da concorrência e a agência regulatória, destacando suas eventuais vantagens comparativamente às possíveis configurações institucionais alternativas. A segunda contém breve sumário da experiência histórico-concreta nos planos mundial e nacional, procurando situar, na medida do possível, diferentes países e setores em tipologia sugerida na primeira parte. A terceira apresenta algumas recomendações de política.
Resumo:
Tem sido significativa a importância da Pequenas e Médias Empresas (PME) nos últimos anos na porcentagem de criação de novos postos de trabalho, na exportação, na inovação e no enorme potencial de distribuição da riqueza nos países. Este trabalho de pesquisa se baseia no estado da arte na formulação de políticas para pequenas e médias empresas, explorando as melhores práticas no âmbito internacional, propondo uma base de política de apoio ás PMEs no Paraguai. Para atingir esse objetivo são trabalhados no referencial teórico o conceito de PMEs, suas vantagens e desvantagens, uma discussão ética sobre o assunto, assim como a definição de Política Industrial e o esquema de apoio a elas no Brasil e no Paraguai.