Programação Detalhada

Minicursos

Ministrante: Geraldo Lúcio Diniz (UFMT) vol. 54 - Notas Mat. Aplic.

Resumo: Com o intuito de apresentar situações-problema, que possam servir de motivação para o uso de equações de diferenças, bem como sistemas de equações de diferenças e para o estudo de métodos de resolução de problemas não lineares, com análise de estabilidade, é que se pretende oferecer este minicurso. A proposta inclui o desenvolvimento de modelos discretos e suas aplicações a problemas biológicos. O material desenvolvido para este curso tem o objetivo de complementar a formação dos graduandos e de apresentar aos professores do ensino básico um “ferramental matemático” que os estimule a trabalhar a Matemática de maneira mais contextualizada às situações cotidianas. O conteúdo consiste em: visão geral de alguns modelos matemáticos; solução de problemas reais da biologia utilizando ferramentas matemáticas; resolução de problemas de variação discreta, enfatizando possíveis métodos de solução; estudo qualitativo do comportamento das soluções de equações de diferenças; estudo de autovalores complexos na solução de equações de diferenças e analogias entre as equações de diferenças e as equações diferenciais.

Nível: Graduandos e graduados em Matemática.

Pré-requisitos: Conhecimentos de funções de variável real e gráficos de funções

Ministrantes: Christina Fraga Esteves Maciel Waga (UERJ) e Lilian Markenzon (UFRJ), vol. 82 - Notas Mat. Aplic.

Resumo: Um dos assuntos mais atuais em grafos é a área que trata de classes e soluções computacionais para problemas nas mesmas. Neste contexto, a classe dos grafos cordais e suas subclasses é uma das mais estudadas. No minicurso mostraremos os aspectos importantes na abordagem de uma classe de grafos: a definição, caracterizações, algoritmos eficientes de reconhecimento e o relacionamento com outras classes. Trataremos, em particular, dos grafos de intervalo e grafos estritamente cordais. Fator decisivo nesse estudo é o emprego de estruturas específicas, concebidas para lidar com cada classe de maneira adequada e que são essenciais para o desenvolvimento de algoritmos eficientes. Apresentaremos, então, um conjunto de ferramentas estruturais – estruturas diversas com as quais é possível estabelecer, de uma forma mais sistemática, as propriedades das classes estudadas – descrevendo como são constituídas e suas propriedades.

Nível: Graduação.

Pré-requisitos: Conhecimentos básicos de Teoria de Grafos e Algoritmos.

Ministrantes: Roberta de Queiroz Lima (PUC-Rio) e Rubens Sampaio (PUC-Rio), vol. 70 - Notas Mat. Aplic.

Resumo: Conceitos básicos: espaço de probabilidade, objetos aleatórios (variáveis aleatórias discretas e contínuas, vetores aleatórios, processos estocásticos), estatísticas de primeira e segunda ordem, condicionamento e independência; Discussão sobre o que é incerteza e uso de estatísticas para medir incerteza; Transformação de um objeto aleatório: soma de variáveis aleatórias independentes e dependentes; Discussão sobre o que diz a literatura sobre o que é propagação de incertezas; Método de Monte Carlo: lei dos grandes números, teorema do limite central, aproximação de integrais, construção de um modelo probabilístico e de um modelo estatístico; Construção de um modelo probabilístico; Geração de amostras de variáveis e vetores aleatórios: método da inversão, método da rejeição, regra da cadeia, Cadeia de Markov Monte Carlo (MCMC); Construção de um modelo estatístico: estimadores de estatísticas e histogramas.

Nível: Graduação e Pós-graduação.

Pré-requisitos: Não Há.

Ministrantes: Daniel Vigo (UFRJ) e Silvana Rossetto (UFRJ), vol. 84 - Notas Mat. Aplic.

Resumo: Neste minicurso, queremos oferecer um guia básico para o desenvolvimento, implementação e avaliação de algoritmos numéricos paralelos usando GPUs. Selecionamos como casos de estudo alguns problemas de álgebra linear e equações diferenciais. Embora já existam diferentes implementações paralelas para esses problemas disponíveis na literatura, nosso objetivo é mostrar de forma sistemática como construir algoritmos paralelos para execução em GPUs selecionando e avaliando diferentes técnicas de particionamento do problema. Desse modo, o minicurso visa apresentar os fundamentos básicos da programação paralela para que os estudantes possam construir seus próprios algoritmos paralelos visando atender requerimentos específicos de suas aplicações. Esperamos que este minicurso sirva de apoio e incentivo para que os estudantes explorem de forma eficiente as vantagens das novas arquiteturas de hardware paralelo, em particular as GPUs.

Nível: Graduação e Pós-graduação.

Pré-requisitos: Disciplinas básicas de programação de computadores e de cálculo numérico, domínio básico da linguagem de programação C. Não necessários conhecimentos de programação paralela.

Ministrantes: José Antonio Salvador (Ufscar), Eleni Bisognin (Unifra) e Vanilde Bisognin (Unifra)

Resumo: Nos últimos tempos, o estudo da modelagem matemática tem crescido muito no Brasil, tanto na área da Matemática Aplicada quanto na área de Ensino de Matemática, em pesquisas desenvolvidas por investigadores com interesse em oferecer alternativas para a sala de aula. Assim, a proposta deste minicurso é trabalhar e discutir atividades de modelagem que contemplam conteúdos matemáticos da Educação Básica e Superior. Busca-se, por meio dessas atividades, proporcionar um ambiente de discussão e diálogo sobre a Modelagem Matemática, como metodologia de ensino e os desafios de sua utilização em sala de aula. Pretende-se criar um espaço de debate em torno dos aspectos teóricos da Modelagem Matemática e de sua aplicabilidade por meio do relato de experiências e provocar reflexões sobre os desafios da inserção na prática pedagógica do professor de Matemática.

Nível: Graduação (bacharelado e licenciatura), Professores da educação básica e superior.

Pré-requisitos: Dois primeiros anos de graduação.</p>

Ministrante: João Frederico da Costa Azevedo Meyer (Unicamp)

Resumo: Neste minicurso irei iniciar com uma definição de Equações de Diferenças e, a partir das Equações de Primeira Ordem e com exemplos, passar a equações de ordens superiores, usando apenas e tão somente conceitos do ensino médio. Em seguida irei propor exemplos cuja modelagem pode ser expressa em termos de sistemas de Equações de Diferenças (tanto os lineares quanto os não lineares), explorando-as através de programas no software MATLAB e interpretando os resultados para exemplos históricos e clássicos. Neste momento iremos trabalhar com a modelagem de compartimentos de espécies de reprodução discreta, levando ao conceito de pirâmide etária para essas espécies. Também aqui um programa poderá, durante a aula, executar propostas de controle. No tocante a sistemas não lineares, iremos fazer um estudo dos modelos discretos de Lotka-Volterra incluindo aí o controle e/ou uma colheita e, ainda, modelar problemas de controle de poluição de bacias hidrográficas, usando o software MATLAB para explorar propostas dos alunos.

Nível: Graduandos e graduados em Matemática.

Pré-requisitos: Conhecimentos de funções.

Plenárias e Semi-Plenárias

Conferencista: João Frederico da Costa Azevedo Meyer (Unicamp)

Resumo: Desde o trabalho do historiador Heródoto, a necessidade de contabilizar populações tem sido um desafio por sua necessidade social, estratégica, natural. Iremos mostrar a evolução dos modelos utilizados, ilustrando alguns dos historicamente mais conhecidos e chegando às modelagens atuais com dependência espaço-temporal. Serão abordados modelos em que espécies interagem e como estas dinâmicas são relevantes a estudos transversais desde a demografia ao controle biológico de pragas. De início as equações usadas são as assim chamadas Equações de Diferenças, um instrumental discreto. No entanto, à medida que o tempo passou, as necessidades foram exigindo o uso de EDO's e sistemas de EDO's, EDP e sistemas (lineares ou não), o uso de parâmetros fuzzy e derivadas no sentido de distribuições com o uso de formulações fracas ou variacionais.

 

 

 

Conferencista: Lucas Eduardo Azevedo Simões (Unicamp)

Coordenador: Edson Cataldo (UFF)

Local: Auditório da Unifesp – 4o. Andar

 Resumo: O método amostral de gradientes (GS) é um algoritmo recentemente desenvolvido para resolver problemas de otimização não suave. Fazendo uso de informações de primeira ordem da função objetivo, este método generaliza o método de máxima descida, um dos clássicos algoritmos para minimização de funções suaves. Este estudo tem como objetivo desenvolver e explorer diferentes métodos amostrais para a otimização numérica de funções não suaves. Inicialmente, provamos que é possível ter uma convergência global para o método GS na ausência do procedimento chamado “teste de diferenciabilidade”. Posteriormente, apresentamos condições que devem ser esperadas para a obtenção de uma taxa de convergência local linear do método GS. Finalmente, um novo método amostral com convergência local superlinear é apresentado.

Conferencista: Leo Liberti (CNRS &amp; LIX, Ecole Polytechnique, France).

Abstract: Many problems in data science are addressed by mapping entities of various kind (e.g. words, finite sets, relations, graphs, orders, lists, files, analogue or digital signal streams, rows or columns in a database table) to vectors in a Euclidean space of some dimension, which is home to several well-known and efficient methods. Most of these methods (e.g. Multidimensional Scaling, Principal Component Analysis, K-means clustering, random projections, compressed sensing) are based on the proximity of pairs of vectors. In order for the results of these methods to make sense when mapped back, the proximity of entities in the original problem must be well approximated in the Euclidean space setting. If proximity were known for each pair of original entities, this mapping would be a good example of isometric embedding. Usually, however, this is not the case, as data are partial, wrong and noisy. I shall survey some of the methods above from the point of view of Distance Geometry.

 

Conferencista: Abimael Fernando Dourado Loula (LNCC/MCTIC).

Resumo: É apresentada uma visão parcial e pessoal do desenvolvimento dos Métodos de Elementos Finitos – MEF, particularmente no Brasil, a partir da década de 70, e seus impactos nas Engenharias e na Matemática Aplicada. Perspectivas das novas formulações em espaços de funções descontínuas são discutidas.

 

Conferencista: Vanilde Bisognin (Unifra)

Resumo: A modelagem matemática é uma atividade científica que, ao ser trabalhada na sala de aula, assume um papel pedagógico que favorece a prática interdisciplinar entre diferentes áreas do conhecimento e torna o ensino da matemática significativo para os alunos. Nesta conferência pretende-se trabalhar a construção de modelos geométricos com o objetivo de responder as seguintes questões: É possível construir modelos geométricos que possuem área limitada e perímetro infinito? É possível construir modelos geométricos que possuem área limitada e perímetro infinito e que não sejam fractais? É possível construir modelos geométricos espaciais com os mesmos questionamentos anteriores? Por meio de exemplos, inspirados no processo de modelagem, tentaremos buscar respostas para as questões propostas. Vamos mostrar que é possível construir modelos significativos partindo-se de questões intrínsecas da própria matemática.</p>

Conferencista: Ésper Abrão Cavalheiro (Unifesp)

Resumo: O termo “Convergência do Conhecimento” se refere à combinação sinérgica dos principais campos da ciência e da tecnologia (C&amp;T), principalmente daqueles cujos avanços estão ocorrendo em escala muito veloz, como é o caso da “nanociência e nanotecnologia”, da “biotecnologia e biomedicina”, incluindo a engenharia genética, da “tecnologia da informação”, incluindo a computação avançada e as comunicações e da “ciência cognitiva”, incluindo a neurociência cognitiva. Essa “Convergência” se apoia na unidade “nano” da matéria e na integração oriunda dessa escala. Avanços revolucionários nas interfaces entre áreas de C&amp;T previamente separadas estão prontas para o desenvolvimento de novas estratégias que tragam respostas às principais questões humanas e soluções até hoje impensáveis ou imaginadas apenas no campo da ficção científica. A integração dos diferentes campos de C&amp;T pode levar ao aprimoramento do desempenho humano – incluindo: maior eficiência do trabalho, aumento da capacidade cognitiva e sensorial, melhor criatividade individual ou grupal, avanço no desenvolvimento de tecnologias efetivas de comunicação, tais como a interação cérebro-cérebro, aperfeiçoamento as interfaces homem-máquina incluindo a engenharia neuromórfica, etc. Mas quais as possíveis implicações éticas e sociais desses avanços? Que resultados esperar? Que estratégias educacionais serão necessárias para trabalhar nessa fronteira? A “Convergência do Conhecimento” pode dar origem a um novo “renascimento” ao incorporar a visão holística das novas tecnologias, os sistemas complexos matemáticos, e a compreensão “causa e efeito” do mundo físico e, assim, buscar compreender o universo desde a escala “nano” à escala “planetária”.

Conferencista: Carlos Alberto de Bragança Pereira (USP)

Abstract: To motivate students in an area of knowledge, a good way is to consider the maxim "a good figure is worth a thousand words."  Our objective here is to consider a situation in which a person choose randomly n points (xi;yi) inside an specific figure of the plane.  Our challenge is to guess a figure among a set of possible ones from which the points were selected. As an example consider only three possible ones: a circle, a square and a diamond (an inverted square).  Statistically, we know that the figure producing the maximum likelihood function should be the chosen one.  Hence, the figure including all points with the smaller area is the best selection in statistical terms. All figures are centered on the origin (0;0) and the three parameters to be estimate are the distances from the point (a;0) to (0;0) in which (a;0) is the point that the figures cross the abscissa in its negative side.   We discuss the definition of sufficient statistics and their associated Pareto posterior distributions for the respective parameters.   This is the first part of the work since we want to generate the results for much more possible kinds of possible figures. 

In this first paper we consider the very general set of figures defined by the super-ellipse model,

Using this function our challenge increases since by optimization and integration we have to choose the best to cover all points with the minimum area. In our work we also insert a parameter for inclination and consider.

Conferencista: Ralf Deiterding (Univ. of Southampton – Reino Unido)

Abstract: The majority of available computational fluid dynamics (CFD) methods approximate the incompressible or weakly compressible Navier-Stokes equations, which leads to a globally coupled problem that in practice can only be solved by iteration. As an alternative, we have adopted the lattice Boltzmann method (LBM). The LBM is based on solving the Boltzmann equation in a specially chosen, discrete phase space and fully explicit in time. Being a type of Cartesian immersed boundary method, the LBM is also well suited for modeling fluid-structure interaction and without difficult mesh untangling operations. Since the utilization of uniform lattices is not effective for realistic geometries, we have incorporated the LBM in finite volume formulation into our parallel AMROC software, which supports block-structured adaptive mesh refinement (SAMR) algorithms generically. Distributions streaming across refinement boundaries during the recursive temporal update are considered and employed in the collision step of the LBM by a correction-type algorithm that was especially designed for the SAMR methodology. In AMROC, geometrically complex, triangulated boundaries are first transformed into a scalar level set function on the Cartesian mesh that stores the distance to the boundary surface. A ghost fluid type approach is applied to implement moving wall boundary conditions. The presentation will describe the employed algorithms and present verification and validation computations. Supplemented with a Smagorinsky-type large-eddy simulation turbulence model the approach is capable of simulating instationary large-scale aerodynamics configurations at a fraction of the computational costs of conventional CFD solvers. High-resolution computations of wind turbine wake and vehicle aerodynamics and thermal convection problems will be discussed to showcase the overall approach.

Conferencista: Daniel Sadoc Menasche (UFRJ)

Abstract: The infrastructures used in cities are consistently becoming more automated. Examples of infrastructures include those to supply power, water and gas. As society depends critically on these cyber-physical infrastructures, their survivability assessment deserves more attention. In this overview, we first touch upon a taxonomy on survivability of cyber-physical infrastructures, before we focus on three classes of infrastructures (gas, water and electricity) and discuss recent modelling and evaluation approaches and challenges. Traditional approaches to study the impact of failures, and to understand how the system behaves when faced with disruptions, involve detailed simulations. However, simulations fall short in terms of scalability. The high computational costs preclude the analysis of a large number of configurations, and practitioners have to focus on the most likely or promising setups. In order to search for the most promising setups, we focus on survivability solutions which characterize the transient system behavior from failure up to recovery, given the occurrence of a disaster (GOOD). Using simple survivability models, we cope with the complexity challenge and avoid dealing with stiff problems. In particular, failure rates and repair rates, which usually differ by many orders of magnitude, are treated separately.

Conferencista: Orestes Llanes Santiago (Universidade Tecnológica de Havana)

Abstract: Nowadays, there is a marked necessity in industrial plants to produce with higher quality and efficiency besides attending the environmental and industrial safety regulations. However, the faults in devices can have an unfavorable impact in the availability of the systems, the environment and the safety of operators. For such reasons, the faults need to be detected and isolated; being these tasks associated to the fault diagnosis systems. Within the fault diagnosis methods there are those based on the process historical data. These approaches do not need a mathematical model, and they do not require much prior knowledge of the process parameters. In this conference will be presented three novel contributions in fault diagnosis based on the process historical data by using data mining and computational intelligence tools. The first contribution is related with a procedure to select the principal component with the objective to obtain a better separability among the classes to improve the fault diagnosis. In the second contribution will be presented an enhanced dynamic approach to improve the detection of small-magnitude faults. Finally, an approach to fault diagnosis with online detection of novel faults and supervised learning using fuzzy clustering techniques will be presented. The results obtained indicate the feasibility of the proposals.

Minissimpósios

Coordenadores:Vinícius Viana Luiz Albani (UFSC), Antônio Carlos Gardel Leitão (UFSC).

Abstract: The aim of this minisymposium is to present some recent developments of the theory and practice of inverse problems, giving special attention to applications in different areas, such as, Heat Transfer, Elasticity, Wave Scattering, Mathematical Finance, and Tomographic Imaging.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
08:15-10:15 MS1: New Trends in Inverse Problems
Coordenadores: Vinícius Viana Luiz Albani (UFSC) e Antônio Carlos Gardel Leitão (UFSC)
Local:  A ser definido
08:15-08:45

Inverse Problems in Space Research: Methods and Applications

Haroldo Fraga de Campos Velho (INPE)

08:45-09:15 Determination of Distributed Forces on Webs of Elastic Lines
Alexandre Kawano (USP)
09:15-09:45 Inverse Scattering on Asymptotically Hyperbolic Manifolds
Raphael Falcão da Hora (UFSC)
09:45-10:15 Solução Numérica de Problemas Inversos em Neurociência
Jemy Valle (LNCC)

 

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS1: New Trends in Inverse Problems
Coordenadores: Vinícius Viana Luiz Albani (UFSC) e Antônio Carlos Gardel Leitão (UFSC)
Local: A ser definido
14:00-14:30

A Projection Strategy for Choosing the Regularization Parameter of Iterated Tikhonov Method in Banach Spaces
Fabio Margotti (UFSC)

14:30-15:00

Problemas Inversos em Biotransferência de Calor
Helcio Orlande (COPPE-UFRJ)

15:00-15:30

Local Volatility Calibration with Applications
Jorge Passamani Zubelli (IMPA)

15:30-16:00

Wave Scattering: Inverting from Theory to Practice
Wagner Barbosa Muniz (UFSC)

 

Coordenador: Agnaldo José Ferrari (Unesp – Bauru/SP), Antonio Aparecido de Andrade (Unesp - Rio Preto)

Resumo: O objetivo do minissimpósio é divulgar algumas técnicas utilizadas no estudo de reticulados algébricos obtidos via corpos de números, enfocando o estudo de empacotamento de esferas em espaços euclidianos e hiperbólicos. Neste minissimpósio veremos, também, diferentes métodos de pesquisar os melhores reticulados, visando sempre determinar aqueles de maior densidade de centro, através das técnicas geométricas e também das técnicas algébricas.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
08:15-10:15 MS2: Códigos e Reticulados Algébricos
Coordenador: Agnaldo José Ferrari (Unesp – Bauru/SP)
Local:  A ser definido
08:15-08:45 Códigos Lineares Via Números de Fibonacci
Antonio Aparecido de Andrade (Unesp)
08:45-09:15

Reticulados Algébricos Integrais e Densos
João Eloir Strapasson (Unicamp)

09:15-09:45 Somas Diretas de Z8 e E8 com Diversidade Máxima
Grasiele Cristiane Jorge (Unifesp) 
09:45-10:15

O Código de Prata e a Construção do Reticulado E8
Carina Alves (Unesp)

 

 

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS2: Códigos e Reticulados Algébricos
Coordenador: Agnaldo José Ferrari (Unesp)
Local: A ser definido
14:00-14:30

Reticulados Algébricos em Dimensões 2n via álgebra dos Quaternios
Cintya Wink de Oliveira Benedito (Unesp)

14:30-15:00 Modulação Codificada Baseada na Teoria dos Reticulados
Edson Donizete de Carvalho (Unesp)
15:00-15:30 Reticulados Dn-rotacionados Via Corpos de Números Totalmente Reais
Robson Ricardo de Araujo (Doutorando, IMECC – Unicamp)
15:30-16:00

Códigos de Bloco Espaço-temporais
Eliton Mendonça Moro (Doutorando, Ibilce – Unesp)

Coordenadores: Elbert Einstein Nehrer Macau (INPE), Othon Cabo Winter (Unesp – Guaratinguetá)

Resumo: Os satélites artificias e as sondas de exploração espacial, para cumprirem suas missões, precisam seguir trajetórias apropriadas, cuja concepção explora as não linearidades intrínsecas da interação gravitacional entre corpos e é limitada por quantidades finitas de energia. Por outro lado, a astronomia dinâmica se depara constantemente com sistemas naturais que apresentam a complexidade advinda desta mesma não linearidade originária da atração gravitacional entre os corpos. O propósito deste minissimpósio é o de apresentar e discutir os fundamentos matemáticos dos métodos que são utilizados para se estudar problemas da astronomia dinâmica, bem como, chegar às estratégias de transferência orbital adequadas a cada cenário de missão espacial desejado. Os aspectos relacionados as limitações tecnológicas na implementação das várias estratégias e suas perspectivas de evolução também serão consideradas. As técnicas abordadas serão as baseadas em (1) Otimização; (2) Teoria de Sistemas Dinâmicos; (3) Assistência Gravitacional; (4) Empuxo Contínuo; (5) Métodos Numéricos. Estes métodos serão abordados pelos palestrantes de acordo com as aplicações envolvidas.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
08:15-10:15 MS3: Satélites Artificiais e Astronomia Dinâmica: Evolução Orbital, Transferências Orbitais e seus Fundamentos Matemáticos
Coordenadores: Elbert Einstein Nehrer Macau (INPE/UNIFESP) e Othon Cabo Winter (UNESP)
Local:  A ser definido
08:15-08:45

Astrodynamics in Large Scale for Controling Climate Change
Francisco J. T. Salazar (UNESP, Guaratinguetá, SP)

08:45-09:15 Trajetórias Espaciais para Estudar um Sistema Triplo de Asteroides
Antônio F. Bertachini de A. Prado (INPE, São José dos Campos, SP)
09:15-09:45 On Dynamical Classification for the Groups of Near Earth Asteroids
Rosana A. N. Araújo (INPE, São José dos Campos, SP)
09:45-10:15

Elevando a inclinação de Miranda
Tadashi Yokoyama (UNESP-DEMAC, Rio Claro, SP)

 

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS3: Satélites Artificiais e Astronomia Dinâmica: Evolução Orbital, Transferências Orbitais e seus Fundamentos Matemáticos
Coordenadores: Elbert Einstein Nehrer Macau (INPE/UNIFESP) e Othon Cabo Winter (UNESP)
Local: A ser definido
14:00-14:30

Frequency Analysis Map Applied to Space Debris in 14:1 Ressonance with Earth
Silvia M. Giuliatti Winter (UNESP, Guaratinguetá, SP)

14:30-15:00

Inclinação Crítica e Órbitas Heliossíncronas para Satélites Artificiais Orbitando Corpos com Distribuição Não Uniforme de Massa
R. Vilhena de Moras (UNIFESP, São José dos Campos, SP)

15:00-15:30

Aspectos Matemáticos e Aplicações de um Sistema de Georreferenciamento.
Pedro Levit Kaufmann (UNIFESP – São José dos Campos, SP)

15:30-16:00

Bases de Gröbner: Uma Ferramenta para Estudar Sistemas Polinominais
Angelo Calil Bianchi (UNIFESP – São José dos Campos, SP)

Coordenadores: Helenice de Oliveira Florentino Silva (Unesp – Botucatu/SP), Franklina Toledo (USP – São Carlos/SP) e Antônio Roberto Balbo (Unesp – Bauru/SP)

Resumo: A Otimização é atualmente uma área de intensa pesquisa e suas aplicações têm ocorrido em todos os ramos das Ciências. Esta área passou por diversas e importantes modificações ao longo dos anos. A capacidade de resolver problemas complexos melhorou muito devido a diversos fatores, como o desenvolvimento de algoritmos aproximativos, aprimoramento de métodos exatos, disponibilidade de softwares rápidos e confiáveis, baixo custo dos hardwares e o desenvolvimento de linguagens de alto nível. Mesmo assim, a otimização ainda tem muitos desafios a serem superados. Neste contexto, este minissimpósio objetiva reunir pesquisadores que trabalham com novas formulações em otimização combinatória e aplicações. Visando criar um fórum de discussão de pesquisas ligadas a Otimização dentro do CNMAC-2017; integrar pesquisadores da área de otimização dando possibilidades de novas colaborações; atrair interessados em temas relacionados à otimização, de forma a dar dinamismo às discussões de pesquisa recentes e despertar interesse em jovens pesquisadores, proporcionar uma discussão sobre as pesquisas dos participantes, seus projetos, dificuldades e integrações de pesquisa.

Programação:

                                                             Quarta-feira, 20 de setembro de 2017
14:00-16:00 MS4: Otimização: Desafios e Perspectivas
Coordenadores: Helenice de Oliveira Florentino Silva (Unesp), Franklina Toledo (USP) e Antônio Roberto Balbo (Unesp)
Local:  A ser definido
14:00-14:30

Problemas Otimização de Grande Porte em Logística: Teoria e Aplicações
Pedro Munari (UFSCAR)

14:30-15:00 Data Mining in Combinatorial Optimization
Alexandre Plastino (UFF)
15:00-15:30 Mathematical Models and Solutions Approaches for a Biojective Cutting Stock Problem
Socorro Rangel (Unesp)
15:30-16:00

Resolução Exata de Problemas de Otimização NP-difíceis em Geometria Computacional
Cid C. Souza (Unicamp)

Resumo das Palestras:

Problemas Otimização de Grande Porte em Logística: Teoria e Aplicações

Palestrante: Prof. Dr. Pedro Munari (Departamento de Engenharia de Produção; UFSCar - Universidade Federal de São Carlos, SP)

Resumo: A importância do uso de modelos matemáticos no apoio à tomada de decisão já é reconhecida e difundida em diversas empresas, principalmente nas que buscam se manter eficientes e competitivas. Problemas de otimização que surgem nesses contextos são em geral de grande porte e bastante desafiadores do ponto de vista computacional, sendo assim imprescindível recorrer-se a abordagens de solução sofisticadas e que combinem diferentes tipos de métodos. Nesta palestra, aborda-se o uso de técnicas de reformulação, como as decomposições de Dantzig-Wolfe e Benders, bem como os métodos de solução relacionados, como geração de colunas, métodos de planos de corte e métodos branch-price-and-cut. Em particular, dá-se o enfoque às técnicas de estabilização usando o algoritmo de pontos interiores, que podem resultar em melhorias significativas no desempenho computacional desses métodos. Além disso, o uso de heurísticas e meta-heurísticas nesse contexto permite a obtenção de métodos híbridos com grande potencial para a resolução de problemas reais, em tempos computacionais adequados para a tomada de decisão em tempo hábil. Resultados computacionais com variantes do Problema de Roteamento de Veículos, motivadas pela interação com empresas, ilustram a importância prática do uso das estratégias de solução apresentadas.

Data Mining in Combinatorial Optimization

Palestrante: Prof. Dr. Alexandre Plastino de Carvalho (Departamento de Ciência da Computação, IC/UFF - Instituto de Computação da Universidade Federal Fluminense, RJ)

Resumo: Recent research has shown that the hybridization of heuristics with data mining techniques is a powerful mechanism to develop more robust and efficient methods to solve hard combinatorial optimization problems. Data mining refers to the automatic recognition and extraction of knowledge from datasets in terms of patterns and rules. The basic idea of using data mining inside a heuristic is to obtain knowledge from previous iterations performed by the heuristic to improve the search in next iterations. Patterns extracted from previously obtained high-quality solutions are used to guide the search, leading to a more effective exploration of the solution space. In this talk, we will see how this type of hybridization is designed and survey the good results of its practical applications in different combinatorial optimization problems. Based on these results we will conclude that heuristics which incorporate data mining procedures may obtain better solutions in less computational time.

Mathematical models and solutions approaches for a biojective cutting stock problem

Palestrante: Profª. Drª. Maria do Socorro Nogueira Rangel (Departamento de Matemática Aplicada; IBILCE/UNESP - Instituto de Biociências Letras e Ciências Exatas, UNESP São José do Rio Preto, SP)

Resumo: The decisions associated with the cutting stock problem (CSP) are usually taken considering a set of conflicting objectives and, in general, there is not a single solution that attends all of them. An example is the definition of a cutting plan that minimizes the total waste and maximize the cutting machine productivity. The literature on multiobjective combinatorial optimization is quite extensive, however, only a few papers address the multiobjective CSP. In this work we present mathematical models and a biobjective computational study of the CSP taking into account the minimization of waste and the possibility of cutting several objects simultaneously (maximizing the productivity of the cutting machine).

Resolução Exata de Problemas de Otimização NP-difíceis em Geometria Computacional

Palestrante: Prof. Dr. Cid Carvalho de Souza (Instituto de Computação;UNICAMP - Universidade Estadual de Campinas, Campinas, SP)

Resumo: São vários os problemas de Otimização NP-difíceis que são investigados por pesquisadores na área de Geometria Computacional e para os quais nenhum algoritmo exato foi proposto e/ou testado experimentalmente. O tratamento comumente dado a estes problemas se concentra principalmente no desenvolvimento de algoritmos aproximados. Ocorre que, na prática, tais algoritmos frequentemente produzem uma solução com custo bastante afastado do ótimo. Nesta palestra será mostrado que instâncias de grande porte de alguns problemas geométricos podem ser resolvidos à otimalidade ao se combinar, de forma engenhosa, técnicas de programação linear inteira com o conhecimento de propriedades geométricas específicas do problema sendo tratado. Dentre os exemplos bem-sucedidos de aplicação da metodologia, será discutido o célebre Problema da Galeria de Artes. Os resultados positivos alcançados neste e em diversos outros problemas geométricos criam uma nova perspectiva para a aplicação de técnicas de Otimização usualmente empregadas em Pesquisa Operacional.

 

 

Coordenadores: Margarete Oliveira Domingues (INPE), Maria Teodora Ferreira (Univap), Claudia Aline Mesquita (Unifesp)

Resumo: O VIII WWlet: Wavelets & Aplicações estará congregando de jovens personalidades científicas a pesquisadores bastante experientes nesta área do conhecimento e no desenvolvimento de aplicações utilizando wavelets e áreas correlatas. O WWlet está formulado com uma abordagem abrangente, traduzindo esforços de importância significativa para desenvolvimentos científicos e tecnológicos no país. Este minissimpósio diz respeito às pesquisas, desenvolvimentos e aplicações envolvendo a análise wavelet, que pode ser entendida simplificadamente como uma forma de tratar sinais multidimensionais ou um método adaptativo para lidar com equações diferenciais parciais. Diferente de outra técnica clássica bastante usada, as técnicas empregando wavelet propiciam tratar com a informação em um compromisso conjugado de tempo e bandas de frequência/períodos/escalas ou mais genericamente a variável de localização e as bandas de frequência do sinal ou função analisadas. Tais características permitem aplicações práticas de grande relevância, como a compressão de imagens, uma análise mais ampla de imagens e sinais, a identificação de estruturas em imagens e sinais e desenvolvimento de métodos numéricos adaptativos para a solução de equações diferenciais parciais, ou regularização delas, e estudos de controle. Neste evento constitui campo propício a desafios, um enfoque à área de aplicações. Uma importante contribuição do WWlet é o fortalecimento das redes de pesquisa e de aplicações dessa técnica, por permitir integrar neste evento pesquisadores, com a nucleação de novos grupos e discussão de futuras atividades, fomentando uma maior disseminação de conhecimentos para as mais diversas áreas em que potencialmente podem ser aplicadas.

Programação:

                                                             Quinta-feira, 21 de setembro de 2017
08:15-10:15 MS5: VIII WWlet – Wavelets e Aplicações
Coordenadores: Margarete Oliveira Domingues (INPE), Maria Teodora Ferreira (Univap), Claudia Aline Mesquita (Unifesp)
Local:  A ser definido
08:15-08:55

Multiresolution Analysis of Magnetic Field Fluctuations in the Jupiter’s Magnetotail
Ezequiel Echer (DGE/CEA/INPE)

08:55-09:35 Study About Spectral Properties of the Global, Hemispheric and Latitudinal Air Surface Temperature Series from NASA/GISS Database and Sunspot Number by Wavelet Analyses
Mariza Pereira de Souza Echer (PNPD/CAPES- GES/INPE)
09:35-10:15

Forecasting with Wavelet Hybrid Models
Eniuce Menezes de Souza (UEM)

 

                                                               Quinta-feira, 21 de setembro de 2017
14:00-16:00 MS5: VIII WWlet – Wavelets e Aplicações
Coordenadores: Margarete Oliveira Domingues (INPE), Maria Teodora Ferreira (Univap), Claudia Aline Mesquita (Unifesp)
Local: A ser definido
14:00-14:30

Wavelet Criteria in Magnetohydrodynamics Modelling Using the Parallel Framework AMROC
Ralf Deiterding (University of Southampton)

14:30-15:00

High Order Time Synchronisation in Multiresolution Adaptive Models
Müller Lopes (CAP/INPE)

15:00-15:30

Sampled Irregularly Functions Approximation with Tensorial Elements Compacts Adaptive Hierarchical Bases
Gilcélia Regiane de Souza (Federal University of São João del-Rei), Jorge Stolfi (Unicamp)

15:30-16:00

Encerramento

 

Coordenadores: Cristiane Oliveira de Faria (IME), Sandra Mara Cardoso Malta (LNCC)

Resumo: Este minissimpósio tem como objetivo principal homenagear o Prof. Abimael Fernando Dourado Loula (LNCC-MCTIC) no seu 70º aniversário. Suas contribuições na área de Análise Numérica de Elementos Finitos têm sido significativas e relevantes, tanto no Brasil como no exterior. O Prof. Abimael Loula, na sua vida acadêmica, vem continuadamente desenvolvendo pesquisas básica e aplicada na Matemática Aplicada e Engenharias, formando assim doutores que atuam e promovem essas áreas nas suas instituições de pesquisa e ensino. Neste encontro, composto por colaboradores e ex-alunos, serão então tratados temas relacionados à análise numérica de elementos finitos (formulações, estimativas de erro e simulações computacionais) aplicados na resolução de problemas acoplados em elasticidade, poroelasticidade, meios porosos e ondas harmônicas no tempo, por exemplo.

Programação:

                                                             Quinta-feira, 21 de setembro de 2017
08:15-10:15 MS6: Análise Numérica de Métodos de Elementos Finitos
Coordenadores: Cristiane Oliveira de Faria (IME) e Sandra Mara Cardoso Malta (LNCC)
Local:  A ser definido
08:15-08:45

A Review of Stabilized Hybrid Descontinuous Galerkin Methods Proposed by Abimael Loula
Cristiane Oliveira de Faria (IME/UERJ)

08:45-09:15 Stabilized Finite Element formulation for Elastic Rods of Arbitrary Geometry
Antônio José Boness dos Santos (UFPB)
09:15-09:45

Mixed Finite Element Approximations for 3D Elliptic Problems with Arbitrary Order of Divergence Accuracy
Philippe Devloo (Unicamp), Agnaldo Farias (IFNMG),Sônia Gomes (Unicamp)

09:45-10:15 Some Comments on the Computational Modeling of the Electrokinetic Remediation Technique
Gustavo Benitez (UFF), Natanael Junior Soares Bento (UFF)

 

 

                                                               Quinta-feira, 21 de setembro de 2017
14:00-16:00 MS6: Análise Numérica de Métodos de Elementos Finitos
Coordenadores: Cristiane Oliveira de Faria (IME) e Sandra Mara Cardoso Malta (LNCC)
Local: A ser definido
14:00-14:30

A Computational Predictive Model for Turbidity Currents: From the Basic Physics to Validation

Fernando Rochinha(UFRJ),Gabriel Guerra (COPPE), Souleymane Zio (COPPE), Alvaro Coutinho (UFRJ), Renato Elias (UFRJ) e José Camata (UFRJ)

14:30-15:00

On Stable and Stabilized Mixed Finite Elements for Elliptic Problems
Maicon Correa (Unicamp)

15:00-15:30

Multi-Scale Reservoir Modeling Incorporating Geological Complexity
Marcio Murad (LNCC/MCTIC)

15:30-16:00  Encerramento

 

RESUMOS DAS PALESTRAS:

Stabilized Finite Element Formulation for Elastic Rods of Arbitrary Geometry

Autor: Antônio José Boness dos Santos (UFPB)

Abstract: Elastic rod models have been largely used in many fields of engineering, as for example, in the analysis of structural components of bridges, tall buildings, piping, risers and ducts for exploitation and transport of petroleum. From the mathematical and computational point of view, thin structure models have deserved especial attention both on formulation and analysis. In this sense, a Timoshenko’s small-strain model for elastic rods with arbitrary geometry is analyzed using mixed finite element methods based on the Hellinger–Reissner principle. In our approach, we used a stabilized mixed formulation derived by the addition of least squares residual of the equilibrium equations in the Galerkin formulation. Stability, uniform convergence and error estimates are proved and results of numerical experiments are presented illustrating the behavior of the finite element approximations, confirming the predicted rates of convergence and attesting the robustness of the stabilized mixed formulation.

Mixed Finite Element Approximations for 3D Elliptic Problems with Arbitrary Order of Divergence Accuracy

Autor: Philippe Devloo (Unicamp), Agnaldo Farias (IFNMG) e Sônia Gomes (Unicamp)

Abstract: The focus of this talk is on the analysis of new different possibilities of choosing balanced pairs of approximation spaces for dual (flux) and primal (potential) variables to be used in discrete versions of the mixed finite element method for 3D elliptic problems. They can be interpreted as enriched versions of BDF M (k + 1) spaces based on tetrahedra, and of RT (k) spaces for hexahedral elements. The new flux approximations are incremented with properly chosen internal shape functions of degree k + n, n ≥ 2, and matching primal functions to degree k + n − 1, higher than the border fluxes, which are kept of degree k. In all these cases, the divergence of the flux space coincide with the primal approximation space, producing stable simulations. These configurations extend the ones propose in [1], where the case of n = 2 has been analyzed. Measuring the errors with L2-norms, and using affine meshes, the enriched space configurations give enhanced convergence rate of order k + 2 for the primal variable, while keeping the order k +1 for the flux. However, for the flux divergence, arbitrary order k + n is reached. Using static condensation, the global condensed systems to be solved in the enriched cases have same dimensions (and structure) of the original ones, which are proportional to the space dimension of the border fluxes for each element geometry.
[1] D. A. Castro, P. R. B. Devloo, A. M. Farias, S. M. Gomes, D. de Siqueira, O. Durán. Three dimensional hierarchical mixed finite element approximations with enhanced primal variable accuracy. Comput. Methods Appl. Mech. Engrg. 306 (2016): 479-502.


Some Comments on the Computational Modeling of the Electrokinetic Remediation Technique

Autores: Gustavo Benitez Alvarez (UFF) e Natanael Junior Soares Bento (UFF)

Abstract: The electrokinetic remediation technique is a technology that has allowed removing some heavy metals from the soils. This technique consists of an arrangement of electrodes connected to a DC power supply that generates an electric field. The ions move toward the electrodes forced by this electric field. Modeling this technique is a difficult task because several physicochemical phenomena are involved. Some authors point out the following factors as the main factors that affect the technique: electrolyte composition and pH, electrical conductivity and field strength, zeta potential, soil chemistry, water content, soil structure and nature and arrangement of electrodes. Frequently, two partial differential equations (PDEs) mathematically model the technique: the Poisson equation and the Nernst-Planck and diffusion-convection-reaction equation or transport equation. However, simplifications are made to solve these equations by numerical methods. In this work we discuss some aspects related to the mathematical model and the finite difference method. It is common to assume restrictions on the boundary of the contaminated region, such as impermeable, non-reacting or nonconducting boundary. These restrictions allow to use a finite domain in the mathematical model. Nevertheless, these restrictions are approximations and not used in our study. Therefore, in this work the boundary conditions at infinity are approximated by the iterative algorithm that expands the domain until to verify a tolerance. Consequently, direct methods are prohibitive for solving the large linear system that result from the discretization of PDEs. We present results for two iterative methods: Gauss-Seidel and Conjugate Gradient Squared.


A Computational Predictive Model for Turbidity Currents: From the Basic Physics to Validation

Autores: Fernando Rochinha (UFRJ), Gabriel Guerra (UFRJ), Souleymane Zio (UFRJ), Alvaro Coutinho (UFRJ), Renato Elias (UFRJ) e José Camata (UFRJ)

Abstract: Numerical models can help to push forward the knowledge about complex dynamic physical systems. The modern approach to doing that involves de- tailed mathematical models. Turbidity currents are a kind of particle-laden flows that are a very complex natural phenomenon. In a simple way, they are turbulent driven flows generated between fluids with small density differences carrying particles. They also are one mechanism responsible for the deposition of sediments on the seabed. A detailed understanding of this phenomenon, including uncertainties, may offer new insight to help geologists to understand reservoir formation, a strategic knowledge in oil exploration. We present a finite element residual-based variational multiscale formulation applied to the numerical simulation of particle-laden flows in a Eulerian- Eulerian framework. Thus, the mathematical model results from the in- compressible Navier-Stokes equation combined with an advection-diffusion transport equation. When sediment concentrations are high enough, rheological empirical laws close the model, describing how sediment concentrations influence the mixture viscosity. The aim of this work is to investigate the effects on the flow dynamics of some these empirical laws. We use two configurations for numerical experiments. The first is a lock-exchange configuration in a tank and the second employs a channel with sustained current. Both numerical experiments are inspired in complex laboratory tests. We show how turbulent structures and quantities of interest, such as sediment deposition, are affected by the different empirical rheological laws. This is a first attempt towards model selection in particle-laden flows with complex rheological laws.


On Stable and Stabilized Mixed Finite Elements for Elliptic Problems

Autor: Maicon Correa (Unicamp)

Abstract: The development of accurate and stable mixed finite element methods for elliptic problems is related to the choice of the main unknowns of the problem and of the respective finite dimensional subspaces for their approximation. Some classical examples of unknowns/problems are the displacement and the stress tensor in the linear elasticity, the flux and the pressure in the Darcy problem and the velocity and the pressure in the Stokes problem. The chosen finite element subspaces must be compatible, in the sense that they must satisfy compatibility conditions, such as the inf-sup condition, in order to provide stable numerical solutions. These compatibility requirements reduce the flexibility in constructing stable subspaces. To overcome the compatibility conditions, several stabilized mixed finite element methods have been developed, allowing to the use of originally unstable spaces. In this work, we review and comment on some recent contributions on the development of both stable and stabilized mixed finite element methods for second order elliptic problems.


Multi-Scale Reservoir Modeling Incorporating Geological Complexity

Autor: Marcio Murad (LNCC/MCTIC)

Abstract: Several geological formations are characterized by the presence of highly complex geological objects. Among them we highlight faults, fractures, veins karsts and sinkholes. In carbonated reservoirs, such as the Brazilian pre-salt, such complexity plays utmost importance in oil and gas production and needs to be explicitly included in computational models. In this talk we propose a new multiscale computational model based on propagation of microstructural information to obtain the coarse-scale description of carbonated reservoirs containing geological complexity. The governing equations arising from the multiscale model are discretized by the finite element method and applied to numerically simulate flow in the outcrop of Arapuá in the state of Rio Grande do Norte. By exploring images provided by drones used by geologists such carbonates appear mainly characterized by the presence of collapse sinkholes and fractures containing filling material. Numerical simulations illustrate the influence of these geological objects upon the magnitude of equivalent properties such as permeability, porosity and stiffness winch are subsequently inserted in commercial simulators adopting coarse meshes.

 

Coordenadores: Rubens Sampaio (PUC-Rio), Roberta de Queiroz Lima (PUC-Rio), Thiago Ritto (UFRJ)

Abstract: Recent developments in computational and sensing resources provide us the ability to infer about physical phenomena with increasingly detailed resolutions and to better characterize the interplay between experimentally observed cause and effect. In many problems of interest, this interplay is best described in a non-deterministic framework, permitting the description of experimental errors and inaccuracies, modeling errors and inadequacies, as well as numerical approximations. These uncertainties conspire, with interpretation and analysis tools, to affect the predictive power of accumulated knowledge. This workshop will bring together current research efforts attempting to characterize and manage uncertainties in various stages of the prediction process. Also the visualization of uncertainties in order to help the decision-making process. In particular, research in the following areas will be highlighted: (1) experimental data representation; (2) data assimilation and inverse analysis; (3) uncertainty propagation; (4) non-deterministic computational modeling; (5) optimization and design under uncertainty; (6) visualization of uncertainties; (7) stochastic modeling; (8) surrogate models; (9) model-order reductions; (10) small probability events; (11) application examples and case studies and (12) Bayesian inference.

Programação:

                                                             Quinta-feira, 21 de setembro de 2017
08:15-10:15 MS7: Modelagem Estocástica e Quantificação de Incertezas
Coordenadores: Rubens Sampaio (PUC-Rio), Roberta de Queiroz Lima (PUC-Rio), Thiago Gamboa Ritto (UFRJ)
Local:  A ser definido
08:15-08:45

Stochastic Model for the Drill String Bit-rock Interaction
Fabio F. Real (INMETRO), Anas Batou (University of Liverpool), Thiago G. Ritto (UFRJ), Christophe Desceliers (Université Paris-Est)

08:45-09:15 Abordagem Bayesiana para a Calibração de um Modelo Não-Local de Viga de Euler-Bernoulli a Partir de Dados no Domínio do Tempo
Daniel Alves Castello (UFRJ) e Leonardo Tavares Stutz (UERJ)
09:15-09:45

Breeding approach for predictability classification applied to the CPTEC-INPE atmospheric global prediction model

Luis Fernando Salgueiro Romero (INPE), Sandra A. Sandri (INPE), Haroldo F. de Campos Velho (INPE)

09:45-10:15 Electromechanical System with Stochastic Dry Friction
Roberta Q. Lima (PUC-Rio), Rubens Sampaio (PUC-RIO)

 

                                                               Sexta-feira, 22 de setembro de 2017
08:15-10:15 MS7:Modelagem Estocástica e Quantificação de Incertezas
Coordenadores: Rubens Sampaio (PUC-Rio), Roberta de Queiroz Lima (PUC-Rio), Thiago Ritto (UFRJ)
 
Local: A ser definido
08:15-08:45

Modelos Lineares Generalizados Dinâmicos – Abordagem de Geometria da Informação
Raíra Marotta Bastos Vieira (UFRJ), Mariane Branco Alves (UFRJ), Helio S. Migon (UFRJ)

08:45-09:15

Uncertainty and Maximal Entropy
Rubens Sampaio (PUC-Rio) e Roberta Q. Lima (PUC-Rio)

09:15-10:15

Blending Frequentist and Bayesian Methods to Obtain a P-value and an Optimal Level of Significance
Carlos Alberto de Bragança Pereira (USP-SP)

RESUMO DAS PALESTRAS

Stochastic model for the drill string bit-rock interaction

Autores: Fabio F. Real (INMETRO), Anas Batou (University of Liverpool), Thiago G. Ritto (UFRJ), Christophe Desceliers (Université Paris-Est)

Abstract: this paper aims at contructing a stochastic model for the bit-rock interaction of a drill string using field data. The proposed model takes into account the fluctuations of the stick-slip oscillations observed during the drilling process. A nonstationary random process is added to the mean torque curve (nonlinear function of the bit speed). This nonstationary process consists of a centered stationary process multiplied by a nonlinear function, which represents the variation of the fluctuations with the bit speed. First, the parameters of the mean nonlinear torque curve are identified with the least square method. Sencondly, a nonlinear function with the same shape of the nonlinear torque function is proposed for the fluctuations variation, which is also a function of the bit speed. Thirdly, a centered stationary process indexed by the bit speed is proposed. Fourthly, an approximation of the experimental power spectral density of the centered stationary process is considered. Finally, independent trajectories of the proposed stochastic model are generated and used to simulate the stochastic response of the drill string torsional dynamics in presence of random bit-rock interaction.

Abordagem Bayesiana para a Calibração de um Modelo Não-Local de Viga de Euler-Bernoulli a Partir de Dados no Domínio do Tempo

Autores:  Daniel Alves Castello (UFRJ) e Leonardo Tavares Stutz (UERJ)

Resumo: O presente trabalho apresenta uma abordagem para a calibração de modelos elásticos não-locais. As estruturas de interesse são vigas cujas equações constitutivas consideram a Teoria da Elasticidade Não-Local de Eringen. Os modelos computacionais são construídos a partir do Método dos Elementos Finitos. A Formulação Bayesiana é utilizada para a calibração do modelo. O Método de Monte Carlo com Cadeias de Markov, através do o algoritmo de amostragem Delayed Rejection Adaptive Metropolis (DRAM), é adotado para exploração da distribuição. A aplicação considera um nanotubo de carbono de parede única como nanoviga.

Breeding approach for predictability classification applied to the CPTEC-INPE atmospheric global prediction model


Autores: Luis Fernando Salgueiro Romero (INPE), Sandra A. Sandri (INPE), Haroldo F. de Campos Velho (INPE)
Abstract: Numerical weather prediction was a scientific conquer from 20 century, with a significant impact over many society activities. One important issue is the degree of reliability associated to the forecasting. A kind of Monte Carlo method, called "ensemble prediction", has been the standard scheme for addressing the predictability, allowing to compute the forecast confidence interval. Here, the predictability is described as a classification problem. Firstly, the bred vector (BV) is calculated. BV is computed from the difference between a reference forecasting and a prediction executed with a slightly perturbed initial condition. The BV is employed as an input for a classifier, indicating the predictability class for the forecasting. Five classes were defined, from very high up to very low confidence. Classifiers from artificial intelligence approaches were used: neuro-fuzzy, neural networks, neuro-hierarchical, and committee machines.


Electromechanical system with stochastic dry friction

Autores: Roberta Lima (PUC-Rio) e Rubens Sampaio (PUC-Rio)

Abstract: This work analyzes the stochastic nonlinear dynamics of an electromechanical system with dry-friction. The system is composed of a cart, whose motion is excited by a DC motor. The coupling between the motor and the cart is made by a mechanism called scotch yoke, so that the motor rotational motion is transformed in horizontal cart motion over a rail. Different models are assumed for the imposed source voltage of the motor. The developed models of the systems take into account the influence of the coupling between the cart and motor in the dynamic behavior of the system. Beside of this, they consider the existence of stochastic dry friction between the cart and the rail. Due to the friction, the resulting motion of the motor can be characterized by two qualitatively different modes, the stick- and slip-modes, with a non-smooth transition between them. The focus of the work is finding, from a stochastic point of view, the stick- and slip-mode parts of the trajectory for different values of the system parameters.

Modelos Lineares Generalizados Dinâmicos – abordagem de geometria da informação

Autores: Raíra Marotta Bastos Vieira (UFRJ), Mariane Branco Alves (UFRJ), Helio Migon (UFRJ)

Resumo: Nesta apresentação uma nova proposta de conciliação de prioris e apresentada e aplicada a classe dos modelos lineares dinâmicos generalizados. Conceitos de geometria da informação, tais como os teoremas Pitagoriano e da projeção são utilizados. Resumidamente, a priori induzida pelo vetor de estados na geodésica da distribuição induzida pela priori conjugada e depois compatibilizá-las, o que possibilita explorar a analise conjugada e o uso da estimação linear de Bayes. Aplicações a dados artificiais demonstram a eficiência do método proposto.


Uncertainty and Maximal Entropy

Autores: Rubens Sampaio (PUC-Rio) e Roberta Lima (PUC-Rio)

Abstract: There is a lot of discussions about uncertainty quantification and propagation of uncertainty. The objective of the paper is to discuss the different forms of uncertainty quantification found in the literature, where the concept is reduced to some statistics, and show with examples that they are not compatible.  If one is right the other cannot be. The concepts of Entropy in Thermodynamics, Classical and Statistical, and Information are discussed and related. The visions of Clausius, Gibbs, Boltzmann, Jaynes about Entropy are discussed, as well as the roles of Bayes, Laplace, Jeffrey, in the     Principle of Maximal Entropy for the construction of probabilistic models.  Some exemples re given.


Blending Frequentist and Bayesian Methods to Obtain a P-value and an Optimal Level of Significance

Autor: Carlos Alberto de Bragança Pereira (USP-SP) – Keynote Lecture

Abstract: P-value is an index of evidence on the validity of a (null) hypothesis being tested. This is the common understanding in the use of significance tests. The usual canonical values are 1%, 5% and 10% regardless of sample size. A paradox arises precisely because the level of significance is not related to sample sizes: "We increase the sample size to reject the null hypothesis." The present work aims to find the optimal significance level for each sample size and then to present an adaptive P-value. The result of a hypothesis test will depend on two values: A P that depends on both the observed value x and the level of signifi-cance α that is sample size dependent: P(x) and α(n). To be able to use the correct definition of P-value - probability of the set of points more extreme (in relation to the null hypothesis) than the observed x - it is necessary to define an order in the sample space. The extended Neyman-Pearson test demonstrates that the optimal test depends on the likelihood ratio and weights given to the two types of error. These weights will define the importance that would be given for the two types of error, α and β.  The optimal level of significance will be the α* which minimizes Aα + Bβ, considering the weights A and B. Our blended P-value consists of using the Bayes Factor (prior-odds multiplied by the likelihood ratio) of each possible sample observation to order the sample space. The P-value, calculated in this way and using the level of significance adapted for decision making, is dimensionless and does not violate the likelihood principle. Our calculation is a comparison of the conditional predictive functions.

 

Coordenadores: Lilian Nasser (UFRJ), Claudia Segadas (UFRJ), Lucia Tinoco (UFRJ)

Resumo: O país está passando por uma fase de reformas na Educação Básica, que demanda atenção e participação da comunidade educacional, no sentido de contribuir e opinar de modo que os novos programas atendam às necessidades dos corpos docente e discente. A reforma do Ensino Médio é urgente, frente ao baixo desempenho dos alunos brasileiros nas avaliações de larga escala, tanto nacionais como internacionais, como o PISA. A Base Nacional Comum Curricular (BNCC), proposta recentemente pelo MEC, apresenta diversas modificações em relação ao currículo do Ensino Fundamental e do Ensino Médio. O MEC deu oportunidade à comunidade de opinar sobre os objetivos propostos na primeira versão, lançada em setembro de 2015. Levando em consideração as críticas e sugestões, foi lançada, então, a segunda versão da BNCC em abril de 2016 (BRASIL, 2016), ainda em discussão. Este minissimpósio tem o objetivo de analisar as propostas de reforma em relação aos conteúdos e abordagens da Matemática tanto no Ensino Fundamental, como no Ensino Médio, focando em quatro temas. Cada palestra abordará um desses temas, analisando os pontos positivos e negativos da nova proposta, e discutindo estratégias de ensino.

Programação:

                                                            Quinta-feira, 21 de setembro de 2017
14:00-16:00  MS8: Propostas Curriculares Recentes para a Matemática do Ensino Fundamental e Médio – Aspectos Relevantes
Coordenadores: Lilian Nasser (UFRJ), Claudia Coelho Segadas Vianna (UFRJ), Lucia Tinoco (UFRJ)
Local: A ser definido
14:00-14:30

Proporcionalidade e Álgebra
Lucia Tinoco (UFRJ)

14:30-15:00

Matemática Inclusiva
Claudia Coelho Segadas Vianna (UFRJ)

15:00-15:30

Educação Financeira
Marcelo  André Abrantes Torraca (UFRJ)

15:30-16:00 Funções e vetores no Ensino Médio
Lilian Nasser (UFRJ)

Coordenadores: Carlos Antonio de Moura (UERJ)

Resumo: Como respirar, modelos matemáticos estão presentes em nossa vida com tanta naturalidade que chegamos a ignorá-los, desconhecê-los, sem pensar que são apenas uma modelagem, uma simulação: com seu emprego, fingimos que o fenômeno sob análise se reduz a algumas relações, escolhidas com uma série de vieses e limitações, vínculos e restrições. Os modelos com que trabalhamos são discretos ou contínuos, com variáveis determinísticas ou aleatórias, diferenciais, estatísticos, transientes ou estáticos, de otimização, de controle – as classificações dependem das técnicas, dos interesses, dos objetivos, etc. Passam a gozar de nossa intimidade e a eles atribuímos poderes: “este sistema governa tal fenômeno". Governa? Propomos neste minissimpósio uma discussão dos conceitos, técnicas e aplicações da modelagem matemático-computacional sob pontos de vista prático, técnico, filosófico, histórico, didático, ético, étnico, estético e místico, com base nas visões de U. d'Ambrozio, R. Hersh, P. Dirac, M. Kritz e J. Helayël-Neto, os dois últimos propostos como debatedores.

Programação:

                                                          Sexta-Feira, 22 de setembro de 2017
08:15-10:15  MS9: Matemática e Modelos – Estrada de Mão Dupla
Coordenadores: Carlos A. de Moura (UERJ)
Local: A ser definido

08:15-08:40

Distintas visões da modelagem matemática
Carlos A. de Moura (UERJ)

08:40-09:15

Vá aonde te leva a Matemática
J. A. Helayël Neto (CBPF)

09:15-09:50

From Systems to Organizations, towards a Second Generation General Systems Theory
Maurício V. Kritz (LNCC)

09:50-10:15 Discussão

 

Coordenadores: Leonardo Bacelar Lima Santos (Centro Nacional de Monitoramento e Alertas de Desastres Naturais, São José dos Campos/SP) e Tiago Carvalho (Instituto Federal de São Paulo, Campinas/SP).

 

Resumo: Em 2016 a SBMAC aprovou a criação do Comitê Temático "Matemática Aplicada a Pesquisas Relacionadas a Desastres Naturais". Este minissimpósio congregará pesquisadores (com destaque a jovens doutores) com pesquisas na interface entre matemática, computação e desastres naturais. A seção será realizada em dois momentos, cada um com 2h de duração. Fora do horário da seção, para todos que se interessarem, será efetuada uma visita às instalações do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden), situado no mesmo Campus do Departamento de Matemática da Universidade Federal de São Paulo (UNIFESP) e da Faculdade de Tecnologia (FATEC) de São José dos Campos/SP, sedes do CNMAC 2017.

Programação:

                                                          Sexta-Feira, 22 de setembro de 2017
14:00-16:00

MS10: Matemática e Desastres Naturais

Coordenadores: Leonardo Bacelar Lima Santos (Cemaden, São José dos Campos/SP) e Tiago Carvalho (IFSP, Campinas/SP)
Local: A ser definido
14:00-14:25

A Novel Approach Combining ADMM and Mathematical Homogenization for Atmospheric Pollution Modeling
Leslie Darien Pérez Fernández (UFPel)

14:25-14:50

Neuroprevisão Hidrológica
Glauston Lima (Cemaden)

14:50-15:15 Desastres Socioambientais Ocorridos no Estado de São Paulo, Período 2000-2015: Banco de Dados, Análises e Perspectivas
Camila B. Martins (Unifesp)
15:15-15:40 Histórico e Perspectivas em "Matemática & Desastres"
Leonardo B. L. Santos (Cemaden)
15:40-16:00 Debate - Lista para Visita à Sala de Monitoramento e Alertas do Cemaden

Mesa-redonda

Debatedores:Marco Antonio Raupp (Diretor Geral do Parque Tecnológico de São José dos Campos), Nehemias Lacerda (CEO da empresa Femto Ciências Aplicadas), Paulo Lorenção (Coordenador do Programa de Especialização em Engenharia da Embraer) e Marcelo Dantas de Carvalho (Diretor de Planejamento, Controle e Risco de Mercado do Banco Safra)

Resumo: É notório o papel estratégico da inovação tecnológica para o desenvolvimento econômico e social do Brasil. Qual é e qual deveria ser a participação da matemática nesse processo? O que as universidades e institutos de pesquisa podem fazer para alavancar a contribuição da matemática em prol da inovação nas indústrias brasileiras? E o que as indústrias estão fazendo e o que deveriam fazer nessa direção? Para debater essas e outras questões envolvendo a matemática, a inovação, a relação universidade-empresa, e temas correlatos que permeiam todas as subáreas da matemática aplicada e computacional esperamos a presença de todos os congressistas em uma das primeiras atividades do CNMAC 2017.