Próximo(s) Seminário(s)
Resumo: O objeto de estudo desta apresentação é a geometria de segunda ordem d
e 3-variedades regulares em R6 e de coposto 1 em R5. Dada a segunda forma fundamental de uma 3-variedade, é
possível associá-la a um net de quádricas: tal associação é uma boa ferramenta para a investigação das
propriedades geométricas de 3-variedades.
Seminários Passados
Resumo: O problema de achar o valor exato da soma infinita dos inversos
dos quadrados dos inteiros positivos ocupa lugar especial no folclore matemático. Apontam os registros
históricos que o problema foi posto por um tal Pietro Mengoli em 1650, tendo chamado nos anos seguintes
a atenção de alguns poucos curiosos. Em 1689, Jakob Bernoulli chama a atenção da comunidade matemática
da época para o problema, com a publicação de seu Tractatus. O problema permanece em aberto pelos
próximos 45 anos, quando é finalmente resolvido em 1735 pelo grande Leonhard Euler. Dezenas de outras
soluções foram encontradas nas décadas e séculos seguintes, o que parece ter sido o passatempo preferido
de muitos matemáticos ao longo do tempo. Nesta palestra, discorrerei sobre aspectos diversos do problema
da Basileia e apresentarei uma nova solução razoavelmente elementar, baseada em integrais impróprias de
uma variável.
Resumo: Apresentaremos um novo resultado relacionado à bifurcação de ciclos limites em
sistemas diferenciais multiparamétricos que possuem um centro, considerando-se a série de Taylor de primeira ordem
da Primeira Função de Melnikov desses sistemas. A determinação de ciclos limites em sistemas diferenciais polinomiais
planares de grau n está relacionada ao conhecido XVI Problema de Hilbert, o qual permanece em aberto passados mais
de 120 anos, mesmo para o caso mais simples, com n=2.
Resumo: Seja FG a álgebra de grupo do grupo G sobre o corpo F. Entre os anos 60 e 70 as
álgebras de grupo que satisfazem identidades polinomiais foram classificadas por Isaacs e Passman. Na década de 80,
Brian Hartley conjecturou que se G é um grupo de torção e o grupo das unidades (U(FG)) de FG satisfaz uma identidade
de grupo então FG satisfaz uma identidade polinomial. Esta conjectura foi estudada por vários autores nos anos 90 com
diversos resultados parciais e finalmente foi provada por Liu em 1999. Simultaneamente Liu e Passman também obtiveram
condições necessárias e suficientes para que U(FG) satisfaça uma identidade de grupo. Recentemente existe interesse em
generalizar a conjectura de Hartley, considerando identidades polinomiais de Laurent. Queremos apresentar esse contexto,
alguns dos resultados e possíveis perguntas.
Resumo: Nesta palestra irei falar sobre folheações holomorfas de dimensão e codimensão um
em variedades Tóricas. Apresentarei alguns resultados obtidos nestas variedades, entre eles o Problema de Poincaré
para folheações holomorfas de dimensão um.
Resumo: Nesta tão falada e conhecida pandemia de Covid-19, o modelo de equações
diferenciais mais utilizado para modelagem da epidemia foi o modelo SEIR (Suscetível, Exposto, Infectado,
Recuperado), ou alguma variação do mesmo. Nesta palestra não irei tratar deste modelo. Mostrarei a trajetória
tomada por um grupo de pesquisadores desde o primeiro artigo até chegar na leitura das pessoas à margem da ciência.
Resumo: Lançamento do livro intitulado “Quem colocou a Terra em movimento?” do autor Eduardo Sarquis Soares.
Neste livro, você vai encontrar uma história que procura articular as relações entre tecnologias e a evolução do pensamento humano,
desde o início até os séculos em que foi gestada a ciência moderna. Verificando como tecnologias no passado revolucionaram culturas,
podemos ampliar a compreensão do que ocorre hoje e, talvez, escolher com mais precisão os destinos das invenções que estão por vir.
Resumo: Obstrução nasal é uma patologia muito comum que afeta pessoas de todas as idades e reduz a qualidade
de vida. Aproximadamente 300,000 cirurgias são realizadas por ano nos Estados Unidos para tratar obstrução nasal. Os métodos para medir
a obstrução nasal (por exemplo, a queda de pressão ao longo da cavidade nasal) têm baixa correlação com a sensação subjetiva de fluxo de
ar pelo nariz. Por este motivo, cirurgias para o tratamento de obstrução nasal são recomendadas com base nos sintomas subjetivos do
paciente e na experiência do médico otorrinolaringologista sem a realização de medidas objetivas. Esta falta de um critério objetivo para
recomendar a cirurgia explica em parte porque aproximadamente 50% dos pacientes relatam que os sintomas persistem após a cirurgia. Nos
últimos 20 anos, a dinâmica de fluidos computacional tem sido aplicada para entender a relação entre a anatomia (geometria) e a fisiologia
(função) do nariz humano. Neste seminário eu vou explicar como a física do fluxo de ar na cavidade nasal pode ser aplicada para melhorar
o diagnóstico e o tratamento de obstrução nasal.
Resumo: A descoberta de relações entre objetos distintos está entre os problemas mais instigantes em Matemática.
Nesta palestra, descrevemos o interessante e curioso processo de, ao escrever alguns exemplos dos denominados “elementos Cayley unitários de
uma álgebra de grupo”, percebermos certas regularidades e nos depararmos com a presença da “sequência de Fibonacci”, a qual é amplamente conhecida
por ter sido utilizada por Fibonacci na descrição do crescimento de uma população de coelhos, e que possui muitas outras aplicações nas mais
diversas áreas. Vale mencionar que os principais conceitos necessários para o acompanhamento da palestra serão relembrados.
Resumo: A Física Quântica tem cada vez mais apresentado novas aplicações, desde a eletrônica convencional à moderna Computação Quântica.
Recentemente alguns progressos notáveis foram alcançados em diversos grupos, tanto a supremacia do computador quântico do Google como da façanha equivalente
do processador quantico chines Zuchongzhi que supera o processador do Google por algumas ordens de grandeza. Não menos formidável, os chineses conseguiram
estabelecer uma conexão quântica a centenas de quilômetros de distância estabelecendo um recorde difícil de ser superado.
Em meio a tudo isso, muito se fala nas redes sociais sobre o paradigma quântico, que é a nova era da revolução quântica, mas afinal o que é a realidade no meio
disso tudo? Faz sentido falar em cura quântica? Espíritos obedecem às leis da quântica? O que há de científico e o que é pseudociência nisso tudo?
Resumo: O objetivo dessa palestra é mostrar que existe muita matemática nos QR codes.
Resumo: O principal objetivo é explorar a relação entre o anel de constantes
de uma derivação, sobre o anel polinomial com n-variáveis, e o conjunto das integrais primeiras de um
sistema de equações diferenciais polinomial. A expectativa é descrever a relação, dar exemplos e citar
alguns dos resultados clássicos da teoria. E por consequente, algumas possíveis questões para trabalhos
futuros. Os conceitos abordados serão acessíveis a alunos de graduação com um curso de equações diferenciais
ordinárias.
Resumo: Todos que fizeram a disciplina de Cálculo 1 estudaram
derivadas e sabem que elas são extremamente importantes e possuem muitas aplicações dentro
e fora da Matemática. Porém, quantos se perguntaram o que elas realmente são? Que
implicações essa resposta pode ter para a Matemática ou a Ciência? Como elas foram
construídas historicamente? Elas sempre tiveram a mesma definição? Existe uma única
definição de derivadas? Nessa apresentação pretendemos ter uma conversa sobre algumas
dessas questões e estimular a curiosidade sobre as possíveis respostas.
Resumo: Ao descascar uma laranja depois do almoço uma pergunta
naturalmente surge: qual a descrição matemática do formato da casca da laranja ao colocá-la
sobre o plano? Apresentaremos a modelagem e a solução do problema e mostraremos como obter
uma espiral de Euler logo após uma refeição.
Resumo: Com situações-problema concretas como ponto de partida, nesta palestra elencarei
alguns tópicos selecionados da Álgebra Linear Computacional, tendo em vista desafios atuais envolvendo grande volume
de dados. A título de exemplo, apresentarei problemas matriciais que combinam Álgebra Linear Computacional e Otimização
nomeadamente, pesquisa de documentos, sistemas de recomendação e análise robusta de componentes principais.
Resumo: Considere uma matriz quadrada $A$. Em muitas situações, somos levados a calcular "funções de $A$". Por exemplo, se $k$ for um número natural, precisamos calcular $A^k$. Ou precisamos calcular o fluxo $e^{At}$ associado a um sistema linear de equações diferenciais de primeira ordem (x'=Ax). Vamos mostrar que, conhecendo os autovalores da matriz $A$ (isto é, as raízes de seu polinômio característico), então essas funções podem ser facilmente calculadas.
Essa palestra tem nível básico e praticamente todos os conceitos utilizados serão relembrados durante a exposição.
Resumo: Neste webnário faremos algumas mágicas com baralho. Sobre mágicas falamos e escrevemos pouco. Um teorema será provado. É recomendado que a audiência acompanhe a atividade com um baralho em mãos.
Resumo: Desenvolvemos um modelo SEIRD generalizado onde são consideradas medidas de distanciamento social, com o objetivo de deter a disseminação da COVID-19. Para a identificação dos parâmetros dos modelos e a quantificação das incertezas é aplicada uma análise bayesiana. Diferentes estratégias de relaxamento das medidas de distanciamento social são investigadas, buscando aquelas que produzem maior impacto no achatamento da curva de infectados. São apresentados resultados para o Brasil e o estado do Rio de Janeiro.
Resumo: Nesta palestra apresentaremos um estudo realizado com meninas das escolas públicas e particulares de Ouro Branco e Congonhas, alunas de engenharia e professoras do Campus Alto Paraopeba em como elas se percebem atuando nas exatas, suas perspectivas de carreira, seu desempenho na graduação, influenciadores na escolha e manutenção na carreira, relação no desempenho da carreira com a maternidade, enfim aspectos relacionados a gênero/graduação/mercado de trabalho e maternidade.
Resumo:Quantas vezes nos perguntamos por que estou aprendendo isso? Algum dia usarei esses conhecimentos que estou adquirindo? A matemática sempre provocou sentimentos contraditórios, o amor ou o ódio e foi vista com bastante frequência como algo muito abstrato e fora da nossa realidade, pretendemos mostrar aqui que a matemática é uma importante forma de comunicação, pois permite por meio de números, tabela, gráficos entre outras coisas sair de divagações e abstrações para a concretude importante para a tomada de decisões, é por meio dela que modelamos a realidade para melhor interpretá-la.
Nessa palestra, irei mostrar alguns conceitos da matemática e estatística, em que me apoiei ao longo da minha carreira no mercado de trabalho, para uma melhor compreensão das situações apresentadas para o auxílio em tomadas de decisões mais acertadas. Em breve
Resumo: Nesta palestra pretendemos apresentar alguns aspectos teóricos bem como o potencial de aplicação da Lógica Fuzzy. A motivação para lógica fuzzy é “relaxar” a lógica tradicional quanto ao seu rigoroso valor verdade para uma sentença: 1 (para sentenças verdadeiras) ou 0 (para sentenças falsas). A lógica fuzzy também tem seus métodos para valorar sentenças, porém os valores verdade podem ser diferentes de 0 ou 1, isto é, estão entre 0 e 1. Assim, podemos admitir que há sentenças “mais verdadeiras” que outras, a depender do grau de veracidade. Nesta área, o primeiro artigo (Zadeh-1965) que surgiu trata especificamente de Teoria de Conjuntos Fuzzy. Intuitivamente, um conjunto fuzzy pode ser pensado da mesma forma que um conjunto clássico, mas com a diferença que sua “fronteira” não é precisamente definida, de maneira que um elemento pode ter pertinência (pertencimento) maior que outro ao tal conjunto fuzzy. Com isso, amplia-se os objetos modelados e tratados em matemática. Embora seu grande poder de aplicação seja na indústria de controle e automação, nós temos utilizado essa teoria voltada para fenômenos biológicos tais como diagnóstico médico, estratégias no controle de pragas, previsão de incêndio florestal, modelagem de propagação de doenças além de aspectos matemáticos puramente teórico, como as equações diferenciais.
Resumo: Estudamos os cones racionais poliedrais não negativos,
representados pelas $n\times n$ matrizes
$A =(\alpha_{pq})$ tais que $\alpha_{ii}=0$ e
$\alpha_{ij} +\alpha_{jk}\geq
\alpha_{ik}$ para todos os $i,j,k\in \{1,\ldots n\}$,
onde $n$ é um número natural.
O conjunto de matrizes mencionado forma uma max-plus Álgebra.
Assim, descrevemos os automorfismos dessa álgebra, os
automorfismos que preservam somente operação $\max$, e os
automorfismos que preserva somente operação $+$.
Também estudamos os mesmos automorfismos para subalgebra de álgebra
definida pelas igualdades $\alpha_{ij}=0,\, (i,j)\in M$ para um
subconjunto arbitrário de índices de matriz.
:
Resumo: Por volta da virada do milênio a internet ganhou uma nova dimensão em nossas vidas, fazendo parte de máquinas e eletrodomésticos do nosso dia dia. É inegável que houveram inúmeras mudanças significativas na forma de se comunicar e se informar. A biblioteca não é mais a principal fonte do conhecimento, o telespectador não é mais um agente passivo, apenas para citar alguns, e consequentemente o mundo do trabalho se renova a cada dia.
Por outro lado, os alunos que chegam hoje à Universidade já nasceram nesse "novo mundo" mas seus professores são de outra geração. Existe ai um impasse? Como e quando a Universidade irá se adaptar a nova realidade? São essas e outras questões que pretendemos discutir, com a única certeza, que não há resposta única, nem simples ou facilmente implementável.
Resumo: A Matemática tem contribuído ao longo da história de forma definitiva e decisiva para o desenvolvimento de diversas áreas do conhecimento inclusive o da ciência da vida. Hoje em dia vemos cada vez mais o uso de modelos matemáticos na análise de uma situação presente e, ou, do passado recente, para intervir de forma consciente nos fatores envolvidos, sem o gasto excessivo de recursos financeiros e naturais, e neste contexto temos a Biomatemática. Nesta palestra faremos uma abordagem sobre como se dá o processo de modelagem, uma apresentação de alguns modelos clássicos em dinâmica populacional e uma aplicação utilizando estes conceitos de uma forma acessível a estudantes de graduação.
:
Resumo: Resumo: Recentemente os computadores quânticos ganharam destaque na mídia graças a um importante resultado experimental publicado por um grupo de cientistas do Google que construiu um dispositivo quântico capaz de realizar em cerca de três minutos um cálculo que não se sabe como resolver de maneira eficiente em um computador clássico. Várias notícias enfatizaram o grande potencial de aplicações dos computadores quânticos, chegando a afirmar que nossos computadores atuais virariam sucata diante dessa nova tecnologia. Será que isso é mesmo verdade? Neste seminário vamos conversar sobre esse feito e suas implicações, sobre o que a Física Quântica tem de especial para gerar esse resultado e sobre as perspectivas da computação quântica para o futuro próximo.
Através de exemplos mostraremos o que são sistemas dinâmicos, que perguntas são feitas e que métodos usamos para tentar respondê-las.
:
Resumo: Nesta apresentação analisamos os efeitos do controle de políticas para a epidemia do corona vírus (COVID-19) no Brasil. Isso é feito considerando um modelo SEIR estruturado por idade com uma classe de quarentena e dois tipos de controles. O primeiro estuda a sensibilidade no que diz respeito aos parâmetros do sistema reprodutivo básico número 𝑅0 que é calculado por um método de próxima geração. O segundo avalia diferentes estratégias de quarentena comparando o número total de mortes.
Resumo: Modelos de regressão linear multivariados são formados por um vetor de variáveis de interesse/respostas, um conjunto de variáveis explicativas, um preditor linear formado por uma combinação linear dessas variáveis explicativas e de coeficientes de regressão, e uma componente aleatória que flexibiliza a relação sistemática e o vetor resposta. Vários fenômenos experimentais ou observados na natureza geram dados com comportamentos assimétricos e/ou de caudas pesadas, como medições fenotípicas em atletas, precipitação de chuvas, entre outros. Assim a usual hipótese de normalidade dos dados é flexibilizada utilizando uma classe de distribuições mais geral que incorpora assimetria e caudas pesadas e têm como casos particulares a distribuição normal, bem como outras distribuições simétricas/assimétricas. Nesta palestra abordaremos algumas destas classes de distribuições destacando suas propriedades, métodos de estimação de parâmetros e aplicações em dados simulados e em dados reais.
Resumo: Durante o ensino superior aprendemos muitas coisas
relacionadas a nossa carreira, porém uma habilidade essencial a todas
as áreas usualmente é deixada de lado: gerenciamento de tarefas e
otimização. Porém, existem uma infinidade de técnicas extremamente
eficientes para gestão de recursos pessoais que podem ajudar na
otimização de responsabilidades, seja para alunos, professores,
empregados no mercado de trabalho ou patrões. Desde técnicas pontuais
de foco, centradas em combater a procrastinação, passando por métodos
mais eficientes de organizar calendários e tarefas futuras, até
metodologias e sistemas específicos de organização de listas de
tarefas e jeitos específicos de se tomar notas em salas de aula.
Nesse workshop ensinaremos diversas técnicas aplicadas para
organização de projetos, gerenciamento de tarefas e organização
pessoal através de aplicações diretas e ensino "hands on". O objetivo
é que cada participante possa, durante o workshop, desenvolver e
organizar um sistema pessoal de gerenciamento de tempo que se adapte
exclusivamente à sua realidade. Enquanto desenvolve seu sistema
próprio, o público poderá organizar desde projetos recentes e metas
pontuais (como estudar de maneira mais eficiente para determinada
matéria) até projetos de longo prazo como planos de mestrado,
doutorado ou empregos futuros."
Resumo: O termo frustração refere-se à incapacidade de um sistema para minimizar simultaneamente suas interações, como conseqüência de que seu estado fundamental é degenerado. Quando isto surge da geometria do sistema diz-se que ele é geometricamente frustrado. A frustração geométrica em materiais conhecidos como gelos de spin, materiais que possuem momentos magnéticos na rede obedecendo a regra do gelo (uma regra semelhante a que moléculas de água obedecem ao estado sólido), tem atraído grande atenção dos pesquisadores na última década devido ao surgimento de quase partículas como o monopolo. Estudos de monopolos magnéticos têm sido direcionados a ilhas magnéticas nano-retangulares, feitas por litografia conhecida como gelos de spin artificiais (GSA), pois possuem vantagens sobre gelos de spin naturais, por exemplo, a observação dos monopolos utilizando técnicas de microscopia magnética e manipulação desses monopolos a temperatura temperatura. Neste trabalho, apresentamos um estudo sobre o surgimento de excitações de GSAs para diferentes espaçamentos de redes durante um processo de inversão de magnetização, através da análise de imagens de microscopia de força magnética. Nós comparamos nossos resultados com um modelo teórico descrevendo as excitações emergentes no GSA, através da interação de Coulombian dos monopoles. Tanto os resultados experimentais quanto os de simulação mostram que quanto maior a separação das ilhas, maior a densidade de monopolos.
Resumo: 2019 é um ano especial. Neste ano, no dia 20 de maio, será oficializada a adoção do novo Sistema Internacional de Unidades – SI. Uma mudança que vem sendo trabalhada há muitos anos. Nessa palestra serão abordados temas relacionados à Metrologia, bem como discutidas as novas definições das unidades de base. Também serão abordados possíveis impactos que essas definições poderão ter no ensino de física no ensino médio e nas séries iniciais do ensino superior.
Resumo: Em 1964, John S. Bell (em resposta ao paradoxo de Einstein, Podolsky e Rosen) publica um artigo em que desenvolve uma desigualdade envolvendo correlação estatística, partindo da suposição de que a Mecânica Quântica seria uma teoria estatística. Então, dever-se-ia possuir uma variável aleatória envolvida com as observações em que, se houvesse a possibilidade de conhecer seu valor, o resultado do experimento seria completamente previsível. Assim, a falta de previsibilidade do experimento seria devida à ignorância sobre o valor que tal variável assume na realização do experimento. Porém, ao usar a fórmula obtida pelo cálculo de probabilidades no experimento de Mecânica Quântica, encontra um conjunto de valores em que a desigualdade é violada, e logo concluiu que os axiomas de probabilidade de Kolmogorov não são suficientes para descrever fenômenos quânticos. Em 1969 J. F. Clauser, M. A. Horne, A. Shimony e R. A. Holt adaptam a desigualdade de Bell para um experimento viável. Neste trabalho, comparam-se as regiões de violação das desigualdades de Wigner, de Bell e de Clauser-Horne-Shimony-Holt e verifica-se que são iguais e que equivalem à violação de um dos axiomas de Kolmogorov. Também se verifica que é possível criar funções de probabilidade para experimentos quânticos que respeitem as desigualdades de Bell e de Clauser-Horne-Shimony-Holt. O trabalho visa tratar algumas incompatibilidades da Teoria Quântica com a Teoria de Probabilidade encontradas na literatura, analisando estatisticamente as fórmulas encontradas.
Resumo: Nanomagnetismo tem chamado a atenção de diversos pesquisadores devido à possibilidade de utilizar nanopartículas magnéticas em dispositivos tecnológicos baseados nos promissores conceitos de magnônica e spintrônica. Tais aplicações demandam o entendimento sobre as propriedades da magnetização, tanto do ponto de vista experimental quanto teórico. Assim, diversos trabalhos têm reportado a produção e caracterização de nanomagnetos com diferentes tamanhos e formas. A produção de nanopartículas magnéticas com diferentes formas promove a descrição sobre como a geometria influencia suas propriedades magnéticas a um tema de grande relevância. Diante desse contexto, nesse seminário, pretende-se discutir alguns avanços fundamentais do estudo dos efeitos de curvatura em sistemas magnéticos nanoestruturados.
Resumo: A interação de um sistema quântico com um ambiente de entorno, em geral, é caracterizada por uma equação mestra. Considerando estados estacionários desta equação, revelamos conexões entre propriedades e simetrias do estado com os parâmetros dinâmicos do ambiente. Em particular, exploramos a relação entre a equação de Lyapunov para sistemas dinâmicos e as soluções estacionárias de uma equação mestra de Lindblad. Explorando relações "bona-fide", que caracterizam propriedades quânticas genuínas (emaranhamento, classicalidade, e "steerabilidade"), obtemos condições sob os parâmetros dinâmicos para os quais o sistema é conduzido a um estado estacionário possuindo tais propriedades. Também desenvolvemos um método para capturar as simetrias do estado estacionário baseadas nas simetrias da equação de Lyapunov. Estes resultados são aplicáveis em processos denominados de "Engenharia de Ambientes", cujo objetivo é criar/manipular o ambiente de modo que sua interação com o sistema produza ou proteja determinada propriedade quântica de um estado.
Resumo: Motivados pelas novas tecnologias na construção de meios materiais com propriedades ópticas especiais, procuramos por classes de materiais não-lineares que apresentam uma transição de fase transparência-opacidade controlável por meio da aplicação de um campo eletromagnético externo, como é o caso dos Smart Glasses. Neste seminário, examinaremos alguns modelos matematicamente simples nos parâmetros dielétricos e calculamos quantidades geométricas relevantes na descrição da propagação dos raios de luz no interior do meio.
Resumo: O principal objetivo desta palestra é apresentar uma poderosa ferramenta para estudar sistemas polinomiais. Esta ferramenta é uma aplicação da vasta teoria algébrico-computacional das chamadas Bases de Gröbner. Seu uso permite decidir se um sistema polinomial admite solução, seu número máximo de soluções e pode ser útil para explicitar soluções. Em certo sentido, as ideias por trás da teoria generalizam três técnicas muito famosas: a eliminação Gaussiana, para resolver sistemas de equações lineares, o algoritmo de Euclides, para calcular o máximo divisor comum entre polinômios em uma variável, e o algoritmo simplex. A partir do uso desta ferramenta, algumas questões clássicas podem ser estudadas e resolvidas com elegância e apoio computacional de modo não empírico e não aproximativo.
Resumo: A geometria Kähler é um pacote em que temos geometria hermitiana associada a uma variedade complexa dotada de uma métrica hermitiana, e ao mesmo tempo a geometria simpléctica que surge de tomar a parte imaginária da métrica citada. Exemplos clássicos são o espaço projectivo complexo n-dimensional, e as variedades grassmannianas que parametrizam subespaços vetoriais k-dimensionais de um espaço vetorial complexo n-dimensional. Nesses casos, podemos contemplar os espaços como espaços homogêneos complexos, do tipo G/P, onde G é um grupo de Lie matricial complexo e P é um determinado tipo de subgrupo chamado de Borel. O teorema de Hodge, que diz que toda classe de De Rham admite uma única forma diferencial harmônica, tem sua mais plena expressão nas variedades de Kähler, já que aí o bigrau (número de vezes em que aparecem dz_i, e número de vezes em que aparece o "d zconjugado j") interage com a métrica, e saem resultados muito notáveis. Concretamente, aparecem restrições a respeito dos números de Betti, entre outras. Vamos dar um curso acelerado de geometria Kähler, que culminará no enunciado da conjectura de Hodge, que é um dos seis Problemas do Milênio ainda abertos.
Resumo: Este seminário se baseia no artigo "On a stochastic fractional partial differential equation with a fractional noise" de K. Shi e Y. Wang (2011). O estudo matemático rigoroso sobre equações diferenciais parciais estocásticas (SPDEs) é um tema bem recente dentro da pesquisa derivada da teoria de probabilidades e processos estocásticos. O interesse neste tema tem surgido devido a possibilidade de sua aplicações a diferentes fenômenos, por exemplo: fluxo em meios porosos, administração de riscos, análise de imagens, neurofisiologia e genética populacional. Neste seminário vamos discutir alguns aspectos de processos estocásticos e de equações evolutivas necessários para a formulação de uma classe de equações diferenciais parciais estocásticas com ruído Browniano fracionário. Abordaremos os seguintes temas: semigrupo e gerador infinitesimal, derivadas fracionárias e auto-similaridade.
Resumo: Funções radiais são populares quando o problema se trata de aplicações multidimensionais que requerem a interpolação de dados provenientes de amostras não uniformes. Uma função radial depende somente da distância a um dado centro, são infinitamente diferenciáveis (multiquadrica, multiquadrica inversa, Gaussiana) outras são suaves por partes (polinomial por partes, thin plate spline). Um aspecto fundamental em um esquema de aproximação por bases radiais é que a construção de uma malha não é necessária. A única propriedade geométrica utilizada refere-se à distância entre dois pontos, o que é fácil de ser calculada, em qualquer dimensão. Sendo assim, aumentar a dimensão não implica em aumento da complexidade da implementação computacional. Esquemas de aproximação por bases radiais têm sido adotados na solução numérica de equações diferenciais parciais [1], em computação gráfica [3], etc.
De modo geral, se a geometria for de tal maneira que a construção de uma malha adequada seja complicada, então, certamente, um método baseado em funções radiais apresentará vantagens sobre outras formulações que dependam fortemente dos aspectos da malha.
Resumo: Neste seminário nosso foco será apresentar a figura de mérito metrológica "Interferometric Power" (IP), e o uso desta quantidade para medir correlações quânticas e a não-Markovianidade de canais quânticos. A IP é definida a partir de um problema de metrologia em sistemas interferométricos, onde se deseja estimar uma fase desconhecida gerada por um Hamiltoniano qualquer, assumindo que apenas o espectro do gerador é conhecido. Uma característica interessante desta quantidade é que ela acaba por ser uma medida de correlações quânticas, inclusive as que vão além de emaranhamento, como a discórdia quântica. Utilizamos a Interferometric Power para medir a não-Markovianidade em canais quânticos Gaussianos, onde estudamos em detalhes dois canais: canal dissipativo e movimento Browniano quântico. Por fim (ou se houver tempo), apresentaremos os resultados parciais de um esquema proposto por nós para uma medida metrológica similar à IP, porém para a estimativa do parâmetro de squeezing introduzido em um modo Gaussiano.
Resumo: Utilizando de associação de modelamento matemático gráfico e fenômenos físicos criou-se um dispositivo ultrassônico que desgregava a lama de aciaria, permitindo que seus componentes metálicos e não-metálicos fossem separados em processos de concentração gravíticos. Uma vez separados e concentrados, os teores metálicos voltam para a siderurgia como sucata. Cada tonelada deste produto economiza cerca de 1,4 tonelada de minério no alto-forno. Os materiais não metálicos, ricos em CaO, MgO e FeO, são utilizados para sequestro de carbono e reciclagem da água utilizada inicialmente no processo. Ao final deste processo, para cada tonelada de material recuperado, mais de 2,2 toneladas de CO2 são sequestrados, e a água, em quase 90%, é recirculada. O produto obtido gasta uma média de 2,4 kWh/t.
Resumo: Chamamos de Contextualidade Quântica a impossibilidade de explicar as probabilidades de resultados de medições a partir de valores pré-existentes que sejam independentes de outras medições compatíveis que podem ser feitas simultaneamente. A Contextualidade é uma das características mais surpreendentes da Física Quântica e acredita-se que entendê-la é um passo importante para se explicar a Física Quântica a partir de primeiros princípios, um dos desafios científicos mais sedutores dos últimos tempos. Além da óbvia importância da Contextualidade para o estudo dos Fundamentos da Física Quântica, ela também foi identificada como um recurso para a Computação Quântica, além de outras aplicações. Os computadores atuais não possuem potência e velocidade de processamento suficientes para suportar certas tarefas complexas. Dessa forma surgiu a necessidade de um computador diferente dos usuais que resolvesse esse tipo de problema, entre os quais podemos citar a fatoração de números primos muito grandes, logaritmos discretos e simulação de problemas da própria Física Quântica, que são intratáveis utilizando os computadores atuais.Embora esse fato não tenha sido definitivamente provado, existem evidências fortes de que os computadores quânticos serão capazes de resolver problemas que os clássicos não conseguem. Essas evidências também apontam para as características únicas da Física Quântica que estão por trás desse poder computacional: Emaranhamento, Não-Localidade e Contextualidade. Assim, essas características passam a ser vistas como recursos, e o objetivo é estudar a Contextualidade Quântica sob esse ponto de vista operacional. Queremos identificar as operações que preservam o conjunto de probabilidades não contextuais e estudar os quantificadores de Contextualidade e sua relação com aplicações.
Resumo: Esta pesquisa teve como objetivo compreender o processo de isomorfismo institucional do campo científico compreendido pelos programas de pós-graduação na área de Sociologia e Ciências Sociais por meio da análise das redes de coautoria científica, estratégias de publicação bibliográfica e influência das regras de avaliação da Capes. O período de análise abarcou os dois triênios mais recentes de avaliação da pós-graduação feita pela Capes (2007-2009 e 2010-2012). Inicialmente, realizou-se um estudo por meio da análise de redes sociais, descrevendo as redes de coautoria entre os pesquisadores dos programas de pós-graduação na publicação de artigos científicos, livros e capítulos de livros e as relações entre as posições nas redes e a produtividade científica. A fonte de dados nesta etapa foram os currículos cadastrados na Plataforma Lattes do CNPq, coletados por meio da ferramenta ScriptLattes. O processamento e análises das redes foram auxiliados pelos softwares Pajek 3.13, Ucinet 6.491, Netdraw 2.135 e Gephi 0.8.2. A segunda etapa do estudo consistiu no mapeamento das subáreas temáticas da publicação mais qualificada e das linhas de pesquisa dos programas da área. As fontes de dados foram os cadernos de indicadores da Capes, para a listagem da produção bibliográfica, e os indexadores via Internet para levantamento dos artigos publicados. Nesta etapa constatou-se que os agrupamentos de programas que se formam pelas semelhanças de temas na produção qualificada não coincidem com os agrupamentos que se formam segundo a semelhança de linhas de pesquisa, contrariando uma das diretrizes da Capes. A terceira etapa da pesquisa tratou sobre a desigualdade no campo em termos de produtividade e de notas nas avaliações trienais da Capes. As fontes de dados foram novamente os Cadernos de Indicadores, os Documentos de Área e Relatórios de Avaliação Trienal da Capes. Constatou-se que a desigualdade é maior nos estratos superiores do Qualis, mas caiu de um triênio ao outro. Finalmente, discutiu-se o isomorfismo institucional, pelos processos coercitivos, normativos e miméticos resultantes do sistema de avaliação imposto pela Capes e da interação entre os atores envolvidos. Concluiu-se que as diretrizes de avaliação da Capes estabelecem as regras do jogo, mas a interação entre os atores geram normas sociais e mimetismos que resultam no isomorfismo institucional do campo.
Resumo:
Resumo:Consideramos modelos estocásticos espacialmente estruturados para descrever alguns dos fatores importantes da dinâmica predador-presa. O modelo predador-presa é descrito por meio de um sistema de partículas interagentes residindo em um reticulado, incluindo um conjunto mínimo de processos markovianos locais: proliferação auto-catalítica de presas em sítios ocupados por vegetal; proliferação de predadores em sítios previamente ocupados por presas; morte dos predadores resultando em sítios ocupados por vegetais; difusão de indivíduos situados em sítios vizinhos.
No caso consideramos a difusão entre presas e os sítios ocupados por vegetal, simulando o tipo de predação chamado senta-e-espera. O modelo prevê a coexistência de espécies com oscilações temporais locais e a coexistência com densidades populacionais constantes. As séries temporais da competição entre as espécies são analisadas por meio das funções de auto-correlação e correlação cruzada, assim como pelo espectro de potência. E essas análises se mostraram eficientes para caracterizar a coexistência entre espécies tanto na fase oscilante como na não-oscilante.
Além disso, a equação mestra associada possui uma solução estacionária absorvente e o modelo exibe transições de fase entre esse e estados ativos que correspondem à coexistência de espécies. Essa transição pode ser estudada através de simulações dependentes do tempo o qual permite obter com boa precisão o diagrama de fase de um modelo que possui estados absorventes, assim como seu comportamento crítico dinâmico.
Resumo:
Resumo:Nas últimas décadas, a cosmologia baseada na hipótese de um Big Bang quente com sua dinâmica dada pela teoria da relatividade geral tem sido extremamente bem-sucedida em explicar precisamente uma grande quantidade de observações. O surgimento da chamada cosmologia de precisão, em particular a observação das anisotropias da radiação cósmica de fundo, só fez confirmar os fundamentos deste modelo com uma acuidade sem precedentes. Mas isto não é suficiente para determinar completamente a forma do Universo. A relatividade geral é um teoria local, que especifica localmente a geometria do espaço-tempo, e não determina (embora restrinja) a topologia do espaço. Supondo homogeniedade e isotropia espaciais (locais), a geometria das sessões espaciais do Universo (i.e., folheamentos para tempo comóvel constante) em grandes escalas é totalmente caracterizada por uma curvatura gaussiana constante, cujo valor e sinal dependem da densidade média de matéria-energia. Mas, seja para curvatura positiva, negativa ou nula, existe uma infinidade de 3-variedades com diferentes topologias permissíveis, só uma das quais em cada caso é simplesmente conexa. Como não existe atualmente uma teoria bem aceita que determine qual a topologia do espaço, esta portanto só pode ser determinada experimentalmente. Pretendo mostrar inicialmente que, embora haja um grande variedade de topologias possíveis, no caso de um Universo pós-inflacionário, mais fovorecido atualmente por razões teóricas e observacionais, a forma local do Universo, i.e. os elementos da topologia que podem efetivamente ser detectados, são em quase todos os casos surpreendentemente mais restritos. A consequencia mais direta de uma topologia não trivial para as sessões espacias do Universo é a existência de classes de geodésicas fechadas do tipo espaço; essencialmente há mais de uma maneira de se voltar ao mesmo lugar. Isto implica na existencia de imagens múltiplas de objetos cósmicos. Como a caracterização destas classes é suficiente, para as 3-variedades de curvatura constante em questão, para caracterizar totalmente sua topologia, então a busca pela topologia cósmica é equivalente a procura por tais imagens múltiplas. Vou apresentar o método atualmente mais promissor para efetuar esta busca de forma sistemática, os chamados círculos no céu, que procura por pares de círculos de anisotropias correlacionadas na radiação cósmica de fundo. Mostrarei como os resultados referentes a forma local do Universo e a caracterização dos grupos de holonomias das variedades planas podem ser usados para efetuar esta busca de forma mais eficiente, e como interpretar os seus resultados.