Directly to content
  1. Publishing |
  2. Search |
  3. Browse |
  4. Recent items rss |
  5. Open Access |
  6. Jur. Issues |
  7. DeutschClear Cookie - decide language by browser settings

Variational Correlation and Decomposition Methods for Particle Image Velocimetry

Becker, Florian

German Title: Auf Variationsrechnung Basierende Korrelations- und Zerlegungsmethoden für Particle Image Velocimetry

[thumbnail of Dissertation als PDF, wie gedruckt]
Preview
PDF, English (Dissertation als PDF, wie gedruckt)
Download (22MB) | Terms of use

[thumbnail of Dissertation als PDF, jedoch mit Hyperlinks]
Preview
PDF, English (Dissertation als PDF, jedoch mit Hyperlinks)
Download (22MB) | Terms of use

Citation of documents: Please do not cite the URL that is displayed in your browser location input, instead use the DOI, URN or the persistent URL below, as we can guarantee their long-time accessibility.

Abstract

Particle Image Velocimetry (PIV) is a non-intrusive optical measurement technique for industrial fluid flow questions. Small particles are introduced into liquids or gases and act as indicators for the movement of the investigated substance around obstacles or in regions where fluids mix. For the two-dimensional variant of the PIV method, a thin plane is illuminated by laser light rendering the particles therein visible. A high speed camera system records an image sequence of the highlighted area. The analysis of this data allows to determine the movement of the particles, and in this way to measure the speed, turbulence or other derived physical properties of the fluid. In state-of-the-art implementations, correspondences between regions of two subsequent image frames are determined using cross-correlation as similarity measurement. In practice it has proven to be robust against disturbances typically found in PIV data. Usually, an exhaustive search over a discrete set of velocity vectors is performed to find the one which describes the data best. In our work we consider a variational formulation of this problem, motivated by the extensive work on variational optical flow methods which allows to incorporate physical priors on the fluid. Furthermore, we replace the usually square shaped correlation window, which defines the image regions whose correspondence is investigated, by a Gaussian function. This design drastically increases the flexibility of the process to adjust to features in the experimental data. A sound criterion is proposed to adapt the size and shape of the correlation window, which directly formulates the aim to improve the measurement accuracy. The velocity measurement and window adaption are formulated as an interdependent variational problem. We apply continuous optimisation methods to determine a solution to this non-linear and non-convex problem. In the experimental section, we demonstrate that our approach can handle both synthetic and real data with high accuracy and compare its performance to state-of-the-art methods. Furthermore, we show that the proposed window adaption scheme increases the measurement accuracy. In particular, high gradients in motion fields are resolved well. In the second part of our work, we investigate an approach for solving very large convex optimisation problems. This is motivated by the fact that a variational formulation on the one hand allows to easily incorporate prior knowledge on data and variables to improve the quality of the solution. Furthermore, convex problems often occur as subprograms of solvers for non-convex optimisation tasks, as it is the case in the first part of this work. However, the extension of two-dimensional approaches to 3D, or to the time axis, as well as the ever increasing resolution of sensors, let the number of variables virtually explode. For many interesting applications, e.g. in medical imaging or fluid mechanics, the problem description easily exceeds the memory limits of available, single computational nodes. Thus, we investigate a decomposition method for the class of unconstrained, convex and quadratic optimisation problems. Our approach is based on the idea of Dual Decomposition, or Lagrangian Relaxation, and splits up the problem into a couple of smaller tasks, which can be distributed to parallel hardware. Each subproblem is again quadratic and convex and thus can be solved efficiently using standard methods. Their interconnection is respected to ensure that we find a solution to the original, non-decomposed problem. Furthermore we propose a framework to modify the numerical properties of the subproblems, which enables us to improve their convergence rates. The theoretical part is completed by the analysis of convergence conditions and rate. Finally, we demonstrate our approach by means of three relevant variational problems from image processing. Error measurements in comparison to single-domain solutions are presented to assess the accuracy of the decomposition.

Translation of abstract (German)

Particle Image Velocimetry (PIV, etwa: Geschwindigkeitsmessung basierend auf Partikelbildern) ist ein berührungsloses, optisches Messverfahren für Strömungen in Fluiden, das in der Industrie verwendet wird. Dabei werden kleine Partikel in das Gas oder die Flüssigkeit gegeben und dienen so als Indikator für die Bewegung der untersuchten Substanz an Hindernissen oder in Mischbereichen. In der zweidimensionalen Variante des Verfahrens wird eine dünne Ebene von einem Laser beleuchtet, so dass die sich dort befindlichen Partikel sichtbar werden. Eine Kamera zeichnet davon in kurzem zeitlichen Abstand Bilder auf. Deren Analyse erlaubt es, die Bewegung der Partikel, und somit die Geschwindigkeit, Verwirbelung sowie weitere abgeleitete physikalische Eigenschaften des Fluids, zu bestimmen. Moderne Analysemethoden suchen Korrespondenzen zwischen Regionen zweier aufeinanderfolgender Bilder, indem sie die Kreuzkorrelation als Ähnlichkeitsmaß verwenden. In der Praxis hat sich dieses Maß als robust gegen Störungen erwiesen, wie sie typischerweise in PIV Daten vorkommen. Normalerweise wird eine erschöpfende Suche über eine diskrete Menge von Bewegungsvektoren durchgeführt, um denjenigen zu bestimmen, der die Bilddaten am besten erklärt. In dieser Arbeit jedoch formulieren wir diese Aufgabe als ein Variationsproblem. Motiviert wird dies durch die umfangreichen Ergebnisse auf dem Gebiet des optischen Flusses. Vorwissen über die physikalischen Eigenschaften des untersuchten Stoffes können durch die Formulierung mit Hilfe der Variationsrechnung miteinbezogen werden. Desweiteren ersetzen wird das üblicherweise quadratische Korrelationsfenster, welches die Bildregionen definiert, deren Korrespondenz untersucht wird, durch eine Gewichtung mit einer Gaussfunktion. Diese Wahl erhöht die Anpassungsfähigkeit des Messverfahrens an die Eigenschaften der Bilddaten deutlich. Wir definieren ein Kriterium, um die Grösse und Form der Fensterfunktion anzupassen, welches direkt darauf abzielt, die Genauigkeit der Bewegungsmessung zu verbessern. Die Anpassung der Fensterform und Geschwindigkeitsmessung werden in einem einzigen Optimierungsproblem vereint. Wir wenden Methoden aus der kontinuierlichen Optimierung an, um eine Lösung dieses nicht-linearen und nicht-konvexen Problems zu bestimmen. Im experimentellen Teil demonstrieren wir die Fähigkeit unseres Ansatzes, synthetische als auch reale Daten mit hoher Genauigkeit zu verarbeiten, und vergleichen ihn mit anderen aktuellen Verfahren. Desweiteren zeigen wir, dass die vorgeschlagene Fensteranpassung die Messgenauigkeit erhöht. Insbesondere können starke Gradienten im Vektorfelder so besser aufgelöst werden. Im zweiten Teil unserer Arbeit entwickeln wir einen Ansatz, um sehr große konvexe Optimierungsprobleme zu lösen. Diese Untersuchung wird zum einen dadurch motiviert, dass Variationsansätze es auf einfache Art und Weise erlauben, Vorwissen über Daten und Variablen einzubringen, und so die Qualität der Lösung zu verbessern. Zudem treten konvexe Probleme oftmals als Unterprogramme von Lösern für nicht-konvexe Optimierungsaufgaben auf, wie dies im Ansatz im ersten Teil der Arbeit der Fall ist. Die Erweiterung von zweidimensionalen Problemen aus der digitalen Bildverarbeitung auf 3D, oder auf die Zeitachse, sowie die stets höher werdenden Sensorauflösungen lassen jedoch die Anzahl der involvierten Variablen förmlich explodieren. Für viele interessante Anwendungen, z.B. in der medizinischen Bildverarbeitung oder der Strömungsmechanik, überschreiten so die Problembeschreibungen leicht die Speichergrenzen aktueller nicht-paralleler Rechner. Aus diesem Grunde untersuchen wir ein Zerlegungsverfahren für die Klasse der konvexen, quadratischen Optimierungsprobleme ohne Nebenbedingungen. Unser Ansatz basiert auf der dualen Formulierung des Problems, und unterteilt es in eine Reihe kleinerer Optimierungsaufgaben, die auf parallel arbeitende Hardware verteilt werden können. Jedes Teilproblem wiederum ist quadratisch und konvex und kann daher effizient mit Hilfe von Standardmethoden gelöst werden. Der Abhängigkeit der Optimierungsprobleme untereinander wird Rechnung getragen, um sicher zu stellen, dass wir wirklich das Originalproblem lösen. Weiterhin schlagen wir eine Erweiterung des Verfahrens vor, die es erlaubt, die numerischen Eigenschaften der Teilprobleme, und damit deren Konvergenzrate, zu verbessern. Der theoretische Teil wird durch eine Analyse der Konvergenzbedingungen und -rate abgeschlossen. Zum Abschluss demonstrieren wir die Funktionsweise unseres Ansatzes an Hand dreier Variationsansätze aus der Bildverarbeitung. Die Genauigkeit der Ergebnisse wird im Vergleich zu Lösungen des nicht-zerlegten Problems gemessen.

Document type: Dissertation
Supervisor: Schnörr, Prof. Dr. Christoph
Date of thesis defense: 30 April 2009
Date Deposited: 28 Aug 2009 10:28
Date: 2009
Faculties / Institutes: Service facilities > Institut f. Technische Informatik (ZITI)
DDC-classification: 004 Data processing Computer science
Controlled Keywords: Particle-Image-Velocimetry, Bildkorrelation, Nichtkonvexes Variationsproblem, Adaptives Verfahren, Konvexe Zerlegung, Lagrange-Relaxation
Uncontrolled Keywords: Particle Image Velocimetry , Correlation , Variational Methods , Dual Decomposition
About | FAQ | Contact | Imprint |
OA-LogoDINI certificate 2013Logo der Open-Archives-Initiative