Abstracts |
O SimEDO é um programa inicialmente desenvolvido em 1982, para DOS,
em Pascal (versão 1.0). Constituía um dos módulos de uma aplicação de ensino
e controlo do ensino em PC.
Em 1998, iniciou-se a sua revisão para o sistema operativo Windows, em
Visual Basic. Pretende-se finalmente publicar uma revisão actualmente em
preparação (em VisualBasic.net).
A apresentação a realizar pretende mostrar a versão de 1998, e avaliar do
potencial interesse por esta ferramenta, apresentando exemplos de aplicação,
e procurando determinar eventuais alterações a introduzir na nova versão.
In several papers originating within the Geophysics and Signal Processing
community, the remote sensing of planet surface properties by antennae
mounted on satellites is discussed. The mapping methods proposed there are
based on a Backus-Gilbert theory. This is an interpolation theory based on
least squares principles, and is incompatible with point data.
I shall try to illuminate some connections between the Backus-Gilbert theory
and interpolation methods of moving least squares type, and will show how
the use of improved antennae in conjunction with the Backus-Gilbert approach
can lead to unsatisfactory maps of surface phenomena.
My talk may serve to alert the remote sensing community to the need for a
more stringent mathematical analysis of their methods, and suggest fruitful
areas for research in numerical analysis for those in studying interpolation
methods.
We study the solution of mean-variance optimization problems for portfolio selection when the return and risk information is uncertain. We look for robust solutions, that is, solutions guaranteed to be good under all possible realizations of the uncertain parameters. We formulate these problems as saddle-point problems that include positive semidefiniteness constraints. We also develop a polynomial-time interior-point method for their solution.
We focus on the primal-dual active set strategy, a versatile algorithmic tool in solving constrained optimal control problems, obstacle problems or, more generally, (linear) complementarity problems in function space settings. After reviewing its motivation by Moreau-Yosida type approximations, discussing some of its main properties and conditional global convergence results, we establish the equivalence of the primal dual active set strategy to semi-smooth Newton methods in function spaces. This latter aspect relies on a suitable generalization of the differential calculus (i.e. slant differentiability) for non-smooth operators to infinite dimensions and offers a different view on local convergence properties, like locally superlinear convergence rates, well known from semi-smooth Newton methods in finite dimensions. Under appropriate growth conditions one is able to establish ``convergence-with-a-rate'' results. Also, the connection to Newton type methods in function spaces allows to prove the important property of mesh independence of semi-smooth Newton methods for operator equations in general, and the primal-dual active set strategy in particular. Finally, numerical results shall emphasize our theoretical findings.
Convolution complementarity problems (CCP's) combine Linear Complementarity Problems with
convolutions and differential equations. CCP's have the form
$$ 0 \leq u(t) \perp (k*u)(t) + q(t) \geq 0 \qquad\mbox{for all } t$$
They are closely related to the Linear Complementarity Systems of Heemels, Schumacher,
van der Schaft, & Weiland. Existence of solutions to CCP's is shown via a numerical
discretization provided $k(0^+)$ is a P-matrix and $k(t)$ satisfies some other mild regularity conditions.
Uniqueness can also be shown under some further mild conditions. These results can be applied to a
simplified model of impact for the wave equation where the Signorini contact conditions are replaced by boundary integrated contact conditions.
Parallel data distribution can be modeled as a Graph Partitioning
Problem where we wish to divide a graph into subgraphs with roughly
equal number of nodes with a mininum number of edges crossing
between the subgraphs. This is a well-known NP-complete problem
so heuristics need to be used.
Spectral graph partitioning is a relaxation of the discrete
optimization problem. The discrete optimization problem can also be
solved approximately by using a Semidefinite Programming (SDP) relaxation.
In recursive Graph Partitioning an edge crossing between two sets
can not affect the later partitioning of either set.
This problem can be addressed by constructing an optimization
problem which includes preferences associated with each vertex.
The straightforward relaxation of this model corresponds to an
extended eigenvalue problem.
Recently we developed a SDP relaxation for this model and have
designed a subspace algorithm for the SDP relaxation.
We present a numerical method to simulate the dissolution process of a solid plunged
into a corrosive fluid. A level set formulation is presented to describe
the free boundary evolution of the dissolution process.
Our goal is to compute critical situations like the parting or the merge
of moving domains. A technique of virtual acid is introduced to obtain acid concentration
in the whole domain and allows a level set formulation on the whole domain.
Numerical simulations using the finite element method are given for two dimensional
geometries. Two typical situations --splitting off and merge-- are presented.
In multicriteria optimization, no point in the set of efficient points
(the solution set)
is able
to represent the whole set: each efficient point is incomparable to each
other
one. Therefore, methods which can construct a representation of the
whole set of efficient points are of particular interest. Since it is
seldom the case that one is able to derive an explicit representation
of the solution set, approximative methods have to be used.
An efficient method for approximating the set of efficient points
of a convex multiobjective problem is derived.
The method is based on a
warm-start technique for an interior-point algorithm for perturbed
optimization problems. A complexity estimate shows that the efficiency
of the method - measured in number of operations per point computed
-
increases with higher accuracy demands.
Moreover, we present computational results for applications of the
method to
real-world portfolio optimization problems.
In this talk elements of a discretization theory for minimization problems are presented.
A characteristic feature of this theory is its relation to well-known theories tailored
for applications to differential and integral equations, e.g. Ritz-Galerkin, colocation or
finite difference methods. Such theories start with the fundamental work by Lax & Richtmyer
and have been further developed in the framework of Stummel's discrete approximations. A central role
in the latter theory plays the class of approximation-regular operator pairs. It turns out that this
class is also suitable for the treatment of discretizations of minimization problems.
The talk is concerned with the presentation of the main concept and some applications of the abstract
results to semi-infinite programming problems, regularization methods or discretizations with finite
elements. The talk is based on earlier work by R.M. Reemtsen and the author.
The vibrating elastic membrane is a classical problem in Mathematical
Physics which arises in a wide variety of physical applications. Since the
geometry of the membrane is usually well defined for a particular problem,
determination of the nature of any nonhomogeneity is critical. The
eigenvalues of particular membranes are often quite accessible
experimentally and so a method for the determination of the nonhomogeneity
based on the available eigenvalues is of practical importance.
Projection of the boundary value problem and its coefficients onto
appropriate vector spaces leads to a matrix inverse problem. Although the
matrix inverse problem is of nonstandard form, it can be solved by a
fixed-point iterative method. Convergence of the method for a rectangular
membrane is discussed and numerical evidence of the success of the method
is presented. The existence of multiple eigenvalues for certain rectangular
membranes causes the analysis to fail. However, the algorithm has been adapted
with some success.
A modelação dos processos de enformação por deformação plástica conduz
geralmente a problemas de fronteira bastante complicados, devido à forte
não linearidade das leis de comportamento, à presença de grandes deformações
e rotações e à evolução das condições de contacto com atrito.
Esta complexidade é ainda maior no caso da enformação de chapas metálicas
pelo processo de estampagem, sobretudo nas zonas da chapa em contacto com
ferramentas com grande curvatura, onde a velocidade de rotação e os efeitos
de flexão e corte podem ser bastante importantes.
Neste seminário é feita uma breve descrição da modelação mecânica e
métodos numéricos utilizados na simulação numérica do processo de estampagem
de chapas metálicas. A modelação apresentada considera a estampagem como um
processo de grandes deformações e rotações. A lei de comportamento
elastoplástico utilizada comporta a elasticidade isotrópica, a anisotropia
plástica descrita pelo critério de Hill e os encruamentos isotrópico e
cinemático linear. O contacto com atrito é modelado pela lei de Coulomb.
A formulação do problema de contacto com atrito recorre a um multiplicador
aumentado. A associação do operador de contacto com atrito com o problema
clássico de equilíbrio estático conduz a uma formulação mista em que as
variáveis cinemáticas (deslocamentos) e estáticas (forças de contacto)
constituem as incógnitas do problema. Para a resolução deste problema
utiliza-se um método completamente implícito do tipo Newton-Raphson.
As não linearidades, induzidas pela lei de comportamento elastoplástico
e pelo contacto com atrito, são tratadas num só ciclo iterativo.
Para inicializar este ciclo calcula-se uma primeira aproximação da solução
utilizando um método explícito associado a uma escolha automática do tamanho
do incremento de carga.
We present a new analysis for the Generalized Pattern
Search methods of Torczon and Lewis and Torczon. The two
novel aspects are that the proofs are much shorter, and
they use weaker smoothness assumptions. Specifically,
we identify interesting limit points even if the
objective function is not continuous or finite valued.
If the objective is Lipschitz near the limit point,
then appropriate directional derivatives of the
objective are nonnegative. If the objective is strictly
differentiable at the limit point, then the gradient
exists and is zero.
These results show the power of Generalized Pattern
Search on some classes of real problems better than the
previous analysis for continuously differentiable
objectives.
We provide a similar analysis for a new derivative-free
algorithm for general nonlinear programming. Our new
algorithm, which combines pattern search and filter
algorithms for step acceptance, is already being
applied at Boeing to aircraft design. Roughly, a
filter method accepts a step that either improves the
objective function value or the value of some function
that measures the constraint violation.
This work is joint with Charles Audet, but we owe a debt
as well to our colleagues at Boeing for their interesting
problems.
O modelo material para a optimização da topologia de estruturas aborda o seguinte problema de projecto: Para uma dada quantidade de material disponível qual é a sua distribuição, num domínio conhecido, que minimiza (maximiza) uma determinada função de custo e satisfaz um dado conjunto de constrangimentos. O peso, a rigidez da estrutura, a tensão equivalente, os deslocamentos e as frequências naturais de vibração são exemplos típicos de funções de custo ou de constrangimentos. Recentemente estes modelos materiais têm sido aplicados com sucesso ao projecto óptimo de materiais celulares periódicos e à simulação computacional do processo de remodelação do osso trabecular. Neste seminário é descrito o modelo material de optimização da topologia e são apresentados e discutidos estes novos modelos de aplicação.
In this talk the problem of designing feedback control
laws when a complete set of state variables is not
available will be considered. For linear autonomous
control systems with quadratic performance criterion,
the design problem consists of choosing an
approporiate static output feedback gain matrix
according to a certain objective function.
The corresponding nonlinear matrix optimization
problem can be interpreted as a constrained and
unconstrained minimization problem.
For solving this optimal control problem, second order
methods are introduced, e.g., Newton's method with
line search, constrained and unconstrained trust
region methods.
Numerical results are demonstrated through different
applications from the engineering literature.
Minimizing a nondecreasing separable concave cost function over a polyhedral set arises in capacity planning problems where economies of scale and fixed costs are significant, as well as production planning when a learning effect results in decreasing marginal costs. This is an NP-hard combinatorial problem in which the extreme points of the polyhedral set must be enumerated, each of them a local optimum. Branch-and-bound methods have been frequently used to solve these problems. Although it has been shown that in general the bound provided by the surrogate dual is tighter than that of the Lagrangian dual, the latter has generally been preferred because of the apparent computational intractability of the surrogate dual problem. This talk describes a branch-and-bound algorithm that exploits the superior surrogate dual bound in a branch-and-bound algorithm without explicitly solving the dual problem. This is accomplished by determining the feasibility of a set of linear inequalities.
We are interested in solving nonlinear programming problems by a Newton-like method without the need for second derivatives. The talk will start out by motivating the well-known SQP method for equality-constrained optimization and by discussing quasi-SQP variants that arise from approximating necessary parts of a second derivative matrix. Globally convergent variants and good practical performance on standard testproblems show that the methods hold much promise. Finally we point out how these techniques can be extended in a nice way to allow for the treatment of inequality constraints, at least for the case where the solution is nondegenerate and strictly complementary.
Optimization in the presence of various types of uncertainty in
the values of parameters and ambiguity in the constraining relationships
is introduced. Solution algorithms are discussed and one example is used
to illustrate the similarities and differences among deterministic,
stochastic and possibilistic linear programming. Extensions to the
general mathematical programming problem is indicated. An application of
possibilistic linear programming to radiation therapy of tumors is
outlined.
NOTE: Given the extent of the topics of this talk, a sketch of the most
fundamental issues is presented. I will make some copies of the overheads
available.
In this talk we show how the filter technique of Fletcher and
Leyffer (1997) can be used to globalize a primal-dual
interior-point Newton method for nonlinear programming. Filter
methods apply the concept of dominance from bi-criteria
optimization to handle the competing aims of minimizing the
objective function and an infeasibility measure at the same time.
Thus, the filter approach avoids the use of merit functions and the
update of penalty parameters.
We present a new primal-dual interior-point filter method and
prove global convergence to first order critical points. Our work
extends the recent convergence result of Fletcher, Gould, Leyffer,
and Toint (1999) for SQP-filter methods to a primal-dual
interior-point framework.
The new algorithm decomposes the primal-dual step obtained from
the perturbed first-order necessary optimality conditions into a
normal and a tangential step, whose sizes are controlled by a
trust-region type parameter. Each entry in the filter is a pair of
coordinates: one measures feasibility and centrality, and
is associated with the normal step; the other measures
complementarity and duality, and is related to the tangential step.
This is joint work with Stefan Ulbrich (Technische Universitaet
Muenchen) and Luis N. Vicente (University of Coimbra).
Optimal control or design problems for hyperbolic conservation laws arise
for example in the design of ducts and airfoils or in the identification
of friction parameters in shallow water flows after neglecting viscous
effects. A key point for an efficient solution of the resulting optimization
problems is the question of (Frechet-)differentiability of the objective
functional. It is well known that entropy solution of conservation laws
develop in general discontinuities (shocks) after a finite time. Since a
variation of the control leads to a variation of the shock locations,
the control-to-state mapping is a priori at best differentiable for a very
weak topology on the state space. This causes difficulties for the
analysis as well as for an efficient numerical solution of the considered
control problems.
We present a sensitivity calculus in L^1 for scalar conservation laws
with source terms that is based on a first order approximation
by nonlinear shift-variations. This sensitivity calculus implies
the Frechet-differentiability of objective functionals of tracking type.
Furthermore, we derive an adjoint-based gradient representation for
tracking type functionals. A key ingredient is an adjoint formula
for shock sensitivities and a careful analysis of the adjoint equation.
The adjoint state has to be defined as reversible solution of the in
general not uniquely solvable adjoint equation. We discuss important
stability properties of reversible solutions which can in turn be used to
define measure solutions of the sensitivity equations by a duality relation.
Moreover, we discuss which discretization schemes of the state equation
lead to convergent numerical adjoints and sensitivities. For this
schemes, the discrete gradients converge to the gradient of the
continuous problem. The discrete gradient can for example be computed
by using automatic differentiation tools where the forward mode
yields a sensitivity-based, the backward mode an adjoint-based
gradient computation.
We show by numerical results for the optimal control of flows with
shocks in 1- and 2-D, in particular the optimal design of an airfoil,
that the consideration of our analytical results leads to
efficient optimization methods.
No presente trabalho consideram-se problemas de valores de fronteira para um certo tipo de equações diferenciais ordinárias não-lineares de segunda ordem, conhecidas como equações generalizadas de Emden-Fowler. Estas equações têm numerosas aplicações, nomeadamente em problemas de mecânica de fluidos e da física do plasma. Do ponto de vista matemático, os problemas considerados distinguem-se por as soluções apresentarem singularidades num ou em ambos os extremos do intervalo, o que levanta certas dificuldades na aproximação numérica. Na nossa abordagem, estas dificuldades são ultrapassadas mediante a utilização de um tipo adequado de aproximações iniciais e a aplicação de métodos iterativos eficientes. A discretização do problema é feita através de um esquema de diferenças finitas comum, o que, se não forem tomadas precauções, leva a uma ordem de convergência baixa (nalguns casos inferior a 1), devido ao efeito das singularidades. Este efeito pode ser atenuado recorrendo ao uso de certas substituições de variável, as quais nos permitem obter convergência de segunda ordem.
O primeiro estudo relacionado com emparelhamentos em grafos foi
efectuado pelo matemático húngaro D. Konig que, em Abril de 1914,
em Paris, no Congresso de Filosofia Matemática, apresentava uma
comunicação
onde referia que todo o grafo bipartido regular admitiria um emparelhamento
perfeito. Desde então, têm-se desenvolvido inúmeros
resultados com emparelhamentos em grafos (bipartidos ou n“o) com muitas
aplicações, quer na
própria teoria dos grafos (como seja, em problemas de fluxo em redes,
problemas de coloração, problemas de determinação
de circuitos hamiltonianos, etc.), quer noutras áreas da
Matemática (como seja, teoria
das matrizes, teoria dos conjuntos parcialmente ordenados, teoria da medida,
etc.).
Nesta comunicação faz-se uma síntese dos principais
resultados associados a emparelhamentos em grafos, com especial destaque
para os grafos que admitem factorizações e apresentam-se duas
aplicações dos emparelhamentos em grafos,
nomeadamente o problema do carteiro e partições de grafos
orientados em cadeias.
Existem problemas que não podem ser resolvidos por algoritmos e que se dizem, por isso mesmo, indecidíveis, mas muitos outros há para os quais é possível construir algoritmos para a sua resolução . No entanto, esses algoritmos possuem ``ordens de complexidade'' tão grandes que se dizem ser ``ineficientes''. O famoso Problema do Caixeiro Viajante encontra-se neste último caso, sendo classificado como NP-completo. Mas o que significa ``NP-completo''? E será que não é possivel encontrar um algoritmo ``eficiente'' para estes problemas? De facto, não basta identificar um problema e garantir que existe (pelo menos) uma solução para ele... cada vez mais se torna necessário saber se ele pode ser efectivamente resolvido em tempo e espaço de memória finitos.
Os métodos iterativos mais recomendados hoje em dia para a
resolução de grandes sistemas, pela sua rapidez e
convergência em grande número de casos, são os
métodos baseados em subespaços de Krylov.
A ideia base deste tipo de métodos é procurar uma
solução aproximada para o sistema de equações
lineares Ax=b num subespaço de Krylov afim.
No caso do método do Gradiente Conjugado (CG), que também se
pode relacionar com o método da descida mais rápida, no
subespaço de Krylov resolve-se um problema de
minimização de norma-A do erro.
As tentativas de generalização deste método ao caso
não simétrico, em que os resíduos não são
ortogonais, deram origem a vários métodos, entre os quais o
mais robusto é o método GMRES (Generalized
Minimum RESidual). Este resolve, no subespaço de menor
dimensão, um problema de minimização da norma-2 do
resíduo. Outros métodos iterativos minimizam o espaço
de memória requerido, não ortogonalizando em
relação a todos os vectores da base já calculados,
mas apenas em relação a um conjunto restrito, embora sejam
menos robustos.
Para aumentar a eficiência destes métodos iterativos eles
têm que ser precondicionados.
Neste seminário serão analisadas algumas formulações conhecidas para o problema da determinação de uma árvore de suporte de custo minimo sobre um grafo, com uma restrição adicional que limita superiormente o número de nodos em cada subárvore incidente num determinado nodo desse grafo, designado por raiz. Esta restrição adicional coloca este problema na classe dos NP-Difíceis, para determinados valores da capacidade. Procurar-se-á fazer uma breve revisão dessas formulações, que passam por modelos naturais, estendidos, orientados e não orientados, a partir dos quais vários autores determinaram limites inferiores para o custo da solução óptima do problema, recorrendo a técnicas conhecidas: técnicas de decomposição, relaxação linear e algoritmos de planos de corte. Apontar-se-ão vantagens e desvantagens entre as várias formulações, com base em alguns resultados computacionais.
We present a new method for the large-scale trust-region subproblem (TRS):
minimize a quadratic function subject to a quadratic constraint. The method
is matrix-free in the sense that only matrix-vector products are required.
The new method is based on a reformulation of the TRS as a parameterized
eigenvalue problem. The strategy consists on an iterative procedure that
drives the parameter towards its optimal value. The solution to the TRS is
then recovered from the solution of the eigenvalue problem corresponding to
the optimal parameter. A large-scale eigenvalue problem must be solved at
each iteration. This is accomplished by means of the Implicitly Restarted
Lanczos Method.
The main features of our method are that it uses the Hessian only in
matrix-vector products, has low and fixed storage requirements and handles
problems with high degree of singularities, which show in the form of the
so-called hard case. This situation arises for example in the regularization
of large-scale discrete forms of ill-posed problems.
We will describe the method, discuss the issues associated with ill-posed
problems and present numerical results on large-scale discrete ill-posed
problems from inverse problems in several areas.
Interior-point methods are a very promising option
for the solution of large-scale nonconvex
optimization problems. The development of these
methods is already well-advanced for the treatment of
linear, quadratic and general convex problems. Recently,
some algorithms have been proposed for the nonconvex
case, but several open questions still remain.
In this talk we will present a brief overview of the main
approaches that have been considered for this nonconvex
case. We will also describe the main ideas behind
interior-point methods for convex and nonconvex problems.
For the specific case of line search methods, several issues
will be analyzed in greater detail, such as the barrier
transformation of the problem, the choice of merit function,
the use of negative curvature to improve the behavior of
these methods, and the updating of the parameters.
Finally, we will describe some aspects of a specific
implementation of an interior-point method using negative
curvature. Particular attention will be paid to the conditions
under which the negative curvature information is used,
the way in which the descent and negative curvature
directions are combined, and to the updating of the
barrier parameter. The convergence properties of the
method will be commented, and computational results
on a set of test problems will be presented.
Um lago solar é um dispositivo de armazenamento de energia solar que tira partido de um gradiente salino (estabilizador) que contraria um gradiente térmico (desestabilizador). Assim, é importante determinar as condições de estabilidade do lago bem como proceder à sua modelação com vista a estudar a respectiva dinâmica. O problema é formulado por meio das equações de Navier-Stokes com a aproximação de Boussinesq as quais são resolvidas aproximadamente por um método espectral. O processo de obtenção destas aproximações recorre a uma articulação entre Computação Simbólica e Numérica.
Consideramos um método de diferenças finitas para a equação de convecção difusão. Este método será sujeito a determinadas condições de fronteira, que darão origem a fenómenos de instabilidade, que serão explicados utilizando a teoria de Godunov-Ryabenkii.
O método mais conhecido para a resolução de um problema de optimização não
linear sem restrições nas variáveis é o método de Newton. Quando o cálculo
das derivadas, em especial das segundas, não oferece qualquer dificuldade,
este método é, em geral, o mais aconselhado. Prova-se que o método, sob certas
condições, tem convergência local q-quadrática. Este comportamento ideal numa
vizinhança da solução, não se estende para fora dela. Não é possível garantir,
para este método, convergência a partir de qualquer aproximação inicial, a não
ser que seja introduzido um esquema de globalização no algoritmo. Além disso,
na prática, a direcção calculada raramente é suficientemente descendente.
Hoje em dia, já não faz sentido implementar o método de Newton,
na sua variante original.
Esta apresentação tem como objectivo introduzir uma modificação ao método
de Newton que ultrapassa os inconvenientes de uma direcção Newton, quando
esta não é descendente, ou quando é ortogonal ao simétrico do gradiente.
Além disso, também resolve a singularidade da matriz dos coeficientes do
sistema Newton.
A direcção Newton modificada surge como uma combinação de duas direcções,
a direcção Newton , quando esta existe, e a direcção de descida máxima.
São estabelecidas condições que garantem que o método de Newton modificado
tem, uma convergência local q-quadrática , bem como uma convergência global.
São também apresentadas condições para que a matriz dos coeficientes
do método modificado seja definida positiva e a direcção modificada
satisfaça uma fracção do decréscimo óptimo, que garante um decréscimo
significativo no valor da função objectivo, ao longo do processo iterativo.
Também se mostra que a nova direcção não se torna ortogonal ao simétrico do
gradiente.
Esta modificação do método de Newton tem sido implementada na resolução de
problemas com restrições de igualdade, no âmbito das técnicas de penalização.
Este tipo de técnicas transforma o problema com restrições de igualdade num
outro, sem restrições, cuja função objectivo é do tipo Lagrangeana aumentada.
À função Lagrangeana, associada ao problema com restrições, adiciona-se um
termo que penaliza a violação das restrições. A este respeito tem sido
implementada uma aproximação ao método de Newton modificado, no sentido de
que as derivadas da função Lagrangeana aumentada são aproximadas por
pseudo-derivadas. Sob certas condições prova-se que este método
pseudo-Newton é bem definido e tem convergência local pelo menos q-linear.
Também se mostra que a metodologia seguida se reduz apenas à aproximação
da matriz Hessiana.
Além da direcção modificada, o algoritmo também calcula uma nova direcção que
força a admissibilidade, isto é, para aproximações calculadas fora de uma
vizinhança da região admissível, o método gera uma direcção que transporta o
ponto para essa região.
Por fim, são apresentados resultados obtidos com a resolução de uma colecção de
problemas, da ferramenta CUTE, e comparados com os obtidos pelo MATLAB e NPSOL.
A detecção de obstáculos a partir do conhecimento do campo incidente e do campo difractado é um problema inverso com diversas aplicações ao nível da imagiologia. Do ponto de vista matemático trata-se de um problema não-linear e mal-posto. Resultados recentes permitiram estabelecer unicidade sob certas condições , mas permanecem questões em aberto relativas ao enfraquecimento dessas hipóteses e possibilidade de critérios simples de caracterização do obstáculo, por exemplo no que diz respeito `a sua conexidade. Serão apresentados critérios para a caracterização de fissuras planas e alguns resultados numéricos.
Em Novembro de 1895, e na sequência de estudos experimentais sobre electricidade, Wilhelm Conrad Roentgen verificou que, ao fazer incidir um feixe de electrões de alta energia sob um alvo se produzia um tipo de radiação extremamente penetrante. Mesmo com espessos blocos de cartão a cobrir o dispositivo, era possível detectá-la num alvo a cerca de 3 metros de distância. Cerca de um mês depois, Roentgen publica um pequeno artigo descrevendo a sua descoberta, que lhe valeria a atribuição do Prémio Nobel da Física em 1901. O seu total desconhecimento relativamente ao carácter dos raios produzidos levou-o a denominá-los de raios-X. Nos dias de hoje a maioria dos fenómenos relacionados com raios-X, como sejam a sua natureza, produção e detecção, são de certa forma bem conhecidos. No domínio das suas aplicações correntes destacam-se a imagiologia e a radioterapia. Nesta comunicação, far-se-á uma breve descrição de sistemas imagiológicos de raios-X, bem como as suas aplicações nas áreas da medicina, segurança e indústria em geral. Seguidamente serão abordadas técnicas numéricas de Monte Carlo empregues na simulação do transporte de radiação X (e de outros tipos) em meios condensados.
Iremos estudar a propagação do erro temporal na integração das ondas solitárias que são solução da equação RLW, ut + ux +1/2(u2)x-uxxt = 0, usando uma interpretação geométrica dessas ondas como equilíbrios relativos. Mostraremos que o crescimento do erro é linear para métodos que preservam quantidades invariantes do problema e quadrático para métodos não conservativos. Serão apresentados alguns resultados numéricos.
Dado um grafo G (sem arestas múltiplas nem lacetes) entende-se como
espectro de G o conjunto dos valores próprios da sua matriz de
adjacência, AG. Em certas publicações,
porém, por
conveniência dos resultados de natureza combinatória a obter,
adoptam-se, em alternativa, os valores próprios correspondentes à
matriz laplaciana de G, DG-AG, onde DG
identifica a matriz
diagonal cujos elementos principais correspondem aos respectivos graus dos
vértices. Para os distinguir denota-se, cada um destes valores
próprios, por li(AG) ou li(DG-AG),
consoante o caso. Existem relações de vária ordem, quer
entre os
valores próprios de AG e de DG-AG,
quer entre estes e
certos parâmetros de natureza combinatória associados aos
grafos, como
sejam, o sua conexidade, o número de clique, o número de
estabilidade, etc.
Nesta apresentação relacionam-se os valores próprios de
AG
com os valores próprios de DG-AG e abordam-se
os resultados
básicos que os relacionam com os valores de alguns parâmetros.
Adicionalmente, introduzem-se vários resultados onde o menor valor
próprio de AG ocupa um lugar de destaque na
determinação
do número de estabilidade de certos grafos, detecção de
grafos
que admitem emparelhamentos perfeitos, etc.
A finite element scheme is developed and analyzed for a thermal convection problem of Boussinesq fluid with infinite Prandtl number in a spherical shell. This problem is a mathematical model of the Earth's mantle movement and has been a topic of interest for geophysicist. It is described by the Rayleigh-Benard equations with infinite Prandtl number, that is, a system of the Stokes equations and the convection-diffusion equation coupled with the buoyancy and the convection terms. A stabilized finite element scheme with P1/P1/P1 element is presented, and an error estimate is established. We also show some numerical results.
Local convergence properties of primal-dual potential-reduction algorithms is analyzed. A variant of the Kojima-Mizuno-Yoshise method that uses modified Newton search directions to minimize the Tanabe-Todd-Ye potential function is shown to have quadratic convergence to even degenerate solutions. This is the first superlinear convergence result on degenerate problems for primal-dual interior-point algorithms that do not follow the central path.
Nos últimos tempos têm vindo a ser colocados, com uma acuidade cada vez maior, os problemas relacionados com impactes ambientais, decorrentes da industrialização crescente e do desenvolvimento tecnológico que simultaneamente se tem verificado. Dos vários problemas ambientais, é bem conhecido o problema da poluição atmosférica, principalmente nos meios urbanos. O estudo deste tipo de problemas é feito com base em métodos e modelos adequados, como o modelo gaussiano da dispersão atmosférica utilizado neste trabalho, por si só ferramentas tecnológicas poderosas mas que se julga poderem ser amplamente potenciadas se forem ligadas a convenientes meios de visualização e representação espacial, já que traduzem fenómenos com forte componente espacial. Daí ter resultado a ideia de se desenvolver um protótipo de um sistema com alguma utilidade na previsão de impactes ambientais pela tentativa de ligação de um destes modelos a um SIG, tendo a preocupação de: a) salientar a utilidade dos SIG's na ligação entre o espaço urbano e a qualidade do seu ambiente físico; b) contornar o facto dos SIG's não suportarem adequadamente as tomadas de decisão, por não disporem de capacidades de modelação analítica.
Nesta comunicação procurar-se-á aplicar as equações de Maxwell a vários tipos de problemas das telecomunicações, nomeadamente à propagação guiada (para alguns casos dos quais não existe ainda solução canónica) e à radiação de aberturas. Posteriormente, usando um método misto de óptica geométrica e óptica física, ambas aproximações das equações de Maxwell, tratar-se-ão problemas de de lentes que mais não são que uma forma especial de antenas de abertura.
Pretendemos apresentar resultados de convergência para alguns métodos de diferenças finitas utilizados em problemas elípticos, definidos em domínios poligonais de R2, considerando condições de fronteira de Dirichlet e de Neumann. Nestes resultados são estabelecidas estimativas de erro que mostram a convergência quadrática da solução numérica e da sua "derivada". Estas propriedades de convergência são bastante importantes em algumas aplicaçães, por exemplo em problemas de elasticidade, onde há necessidade de conhecer a solução e a sua derivada. Atendendo à equivalência entre os métodos de diferenças finitas estudados e métodos de elementos finitos lineares, concluímos que estes últimos são "superconvergentes".
É reconhecido que a prática da Investigação Operacional transcende em diversos aspectos o uso de ferramentas matemáticas. A título de exemplo, refira-se a estruturação de problemas e a agragação de preferências do(s) agente(s) de decisão. Contudo, e minha convicção que a matemática pode ser de grande utilidade em aspectos até agora pouco explorados, que em muito transcendem os métodos e as técnicas tradicionais da Investigação Operacional. Nesta palestra tentaremos ilustrar como a análise de robustez e a análise a posteriori podem, em conjugação com a utilização adequada da ciência dos computadores, ampliar a aplicabilidade de modelos matemáticos em situações de informação incompleta.
Será feito um breve enquadramento das Meta-Heurísticas como abordagem a problemas Combinatórios NP-difíceis. Para os métodos do tipo "Simulação da Têmpera" será proposto um modelo matemático basedo na noção de Entropia, no sentido da Teoria da Informação. Mostrar-se-á como o modelo proposto permite uma análise da convergência do método, bem como a geração de esquemas algorítmicos.