Datum | Vortragende(r) | Thema |
---|---|---|
08.03.2006 | Marko Milosevic | Hierarchical Pattern Recognition in VLSI |
Florian Schimandl | Aufbereitung und Analyse von Daten zur Reisezeitschätzung im städtischen Netz | |
31.01.2006 | Christian Mayer | Cache-optimale Matrix-Operationen mit der Peano-Kurve |
Imran Shafiq | Accurate Extraction of Material Interfaces from Implicit Level Set Functions in Two and Three Dimensions | |
Peter Jacobi | Automatische Musikerkennung | |
14.12.2005 | Ralf Kible | Entwicklung eines Cache- und SSE-optimierten Lattice-Boltzmann-Strömungssimulationsprogramms |
7.12.2005 | Christian Mayer | Cache-optimale Matrix-Operationen mit der Peano-Kurve |
Christoph Niedermayr | Cache-effiziente Implementierung eines Poisson-Lösers auf Basis von Szierpinski-Kurven | |
23.11.2005 | Imran Shafiq | Accurate Extraction of Material Interfaces from Implicit Level Set Functions in Two and Three Dimensions |
Igor Jeremic | Web Services in C++ using Globus Toolkit 4 | |
Ivan Ivanovski | Data Manipulation in Globus Toolkit 4 | |
Ansprechpartner |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 30.07.2008, 17:00 Uhr s.t. Vorträge:17:00 Uhr - Christian Konrad: Numerische Aspekte und Aspekte der Parallelisierung zur Lösung des gekoppelten Maxwell/Vlasov Systems (IDP)Raumfüllende Kurven als Mittel zur Partitionierung von Rechengittern haben sich in den letzten Jahren zunehmend etabliert da die Methodik ausgesprochen schnell ist, sie automatisch zu einer Cache-effizienten Datenspeicherung fuehrt und die Partitionen zufriedenstellende Kantenschnitte aufweisen. Parallele Simulationen für multi-physics Probleme, wie in unserem Falle die Particle-In-Cell Diskretisierungsmethode für das gekoppelte Maxwell/Vlasov System, stellen Gebietszerlegungsprobleme dar, die es erfordern, mehrere Bedingungen gleichzeitig zu balancieren (multi-constraint problems). Insbesondere erhalten wir ein 2-constraint Problem. Im Unterschied zu 1-constraint Problemen reicht es hier nicht aus die Indices der Gitterelemente bzgl. einer raumfuellenden Kurve zu berechnen, diese zu sortieren und Partitionen als zusammenhaengende Intervalle zu bestimmen. Da es in unserer speziellen Anwendung nötig ist während der Simulation mehrmals erneut zu partitionieren wird ein schneller Partitionierer benötigt. Im Rahmen dieser Diplomarbeit wurde eine neue, auf raumfüllenden Kurven basierende Methodik für 2-constraint Probleme entwickelt. Diese Methode fuehrt zu einem interessanten, kombinatorischen (und NP-kompletten) Problem, dem wir mit einer Erweiterung des Karmarkar-Karp Algorithmus (bekannt als die beste Heuristik für das Aufteilungsproblem einer Menge von Integerzahlen) begegnen. Wir vergleichen unsere Partitionierungsergebnisse mit Ergebnissen, die der Graph-Partitionierer MeTiS erzielt. Dabei ist festzustellen, dass unsere Methode etwa 100 mal schneller ist und im Mittel zu Kantenschnitten fuehrt, die etwa 2 bis 3 Mal so hoch sind, wie sie MeTiS erzeugt. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 23.07.2008, 15:00 Uhr s.t. Vorträge:15:00 Uhr - Benjamin Peherstorfer: Adaptive Sparse Grid Representation for Indicator Functions (BA)Für charakteristische Funktionen achsparalleler Rechtecke wird die Genauigkeit der Bestapproximation in Dünngitterräumen untersucht. Hierfür wird die Menge der durch die approximierte Funktion falsch zugeordneten Punkte bestimmt. Der untersuchte Ansatz nutzt Eigenschaften der Dünngitter-Repräsentation aus, um eine möglichst gute Approximation der Höhenlinie, die der Rechtecksgrenze entspricht, zu errechnen. In diesem Zusammenhang wurden die beiden Verfahren "Marching Squares" und "Quad Squares" implementiert. Um den Fehler zu bestimmen, wird die Fläche zwischen Soll-Linie und approximierter Höhenlinie bestimmt. Dadurch ist schließlich eine Gegenüberstellung von Fehler und Level des benutzten Gitters, Aufwand des Verfahrens oder Verfeinerungsgrad des Gitters möglich. 15:30 Uhr - Ivaylo Haralampiev : Sudoku Rätzelgenerator (SEP)Es ist trivial für den Rechner ein beliebiges Sudokurätsel zu lösen. Es gibt einige sehr schnelle kleine Algorithmen die hunderte von Sudokus pro Sekunde lösen. Das Problem ein gültiges Sudoku zu generieren ist nicht so einfach. Dieses Dokument beschäftigt sich mit dem Thema Generieren und Bewerten von Sudokurätsel. Auf die Webseite http://sudokugenerator.hit.bg sieht man ein Java Applet, das die unten beschriebe Schema demonstriert. Das Sourcecode des Projekts steht im Jar. Dieses Programm basiert sich auf die klassische 9x9 Gitterstruktur und die klassische Regel "Die Ziffern von 1 bis 9 müssen in jede Zeile, Spalte und Block genau ein mal auftreten". Unter Block versteht man ein 3x3 Gitter. Es gibt genau 9 Blöcke, sowie 9 Zeilen und 9 Spalten oder insgesamt 81 Felder. Die Felder identifiziert man als [Zeile, Spalte] Tupel. Die erste Zelle ist r1c1, die letzte - r9c9. Ein wichtiges Hilfsmittel beim Lösen von Sudokus sind die so genannte Pencilmarks. Manche Spieler finden es sinnvoll bestimmte Felder zu markieren. Die Markierung enthält Information über die übrige Kandidaten für das Feld. Das Programm Sudokugenerator-1.0 kennt immer die vollständige liste der Kandidaten für alle Feldern. Das Interface erlaubt aber absichtlich keine Pencilmarks aus verschiedene Gründen (z. B Bewertung). |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.05.037Termin: Mittwoch, 09.07.2008, 15:00 Uhr s.t. Vorträge:15:00 Uhr - Marion Bendig: Monte Carlo Simulation of Fluorescent ConcentratorsFluorescent concentrators are developed and investigated in solar energy research in order to improve the efficiency and applicability of solar cells. This is achieved by concentrating even diffuse light on cloudy days on small solar cells, using a fluorescent dye enclosed in low-cost acrylic glass. The testing of new concepts in experiments is difficult and expensive. We are developing a Monte Carlo simulation model for fluorescent concentrators in order to make it possible to test and improve different setups and to gain further insight into the complex physical processes. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.05.037Termin: Mittwoch, 02.07.2008, 15:00 Uhr s.t. Vorträge:15:00 Uhr - Daniel Reutter: Implizite Prädiktionsmechanismen im Menschen: Simulation und Evaluation kognitiv-psychologischer ErklärungsmodelleDie kognitive Psychologie kennt Leistungsverbesserungen, wenn relevante Stimuluseigenschaften wiederholt werden. Für dieses implizite prädiktive System gibt es seit 1995 eine verbal formulierte kognitive Theorie. Grundlage der Diplomarbeit ist die Implementierung und Evaluation einer kürzlich vorgestellten mathematischen Formulierung dieser kognitiven Theorie. Im Rahmen der bisherigen Arbeit wurde das mathematische Modell implementiert, und randomisierte Stimulussequenzen, wie sie in der experimentellen Psychologie verwendet werden, evaluiert. Dabei wurden in der Literatur beschriebene experimentelle Manipulationen simuliert und die impirischen Ergebnisse mit dem Modellverhalten verglichen. Zusätzlich konnten neue Vorhersagen aufgrund des Modellverhaltens getroffen und auch empirisch in neuen Experimenten bestätigt werden. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 25.06.2008, 13:00 Uhr s.t. Vorträge:13:00 Uhr - Thomas Haller: Mulitreference Alignment of 3D Data from Electron Tomography (DA)The goal of this thesis is the development of software for fast averaging and alignment of sub-tomograms. The sub-tomograms contain the three-dimensional structural information of macromolecular protein complexes imaged by cryo-electron tomography. Cryo-electron tomography is an emerging technique used in structural biology, capable of resolving large complexes at nanometre resolution, providing insight into the function and interactions that take place within a cellular context. However, attainable resolution is limited by the low signal-to-noise ratio and distortion from artifacts such as the ``missing wedge'' (i.e.\ missing structural information caused by inherent limitations of electron tomography). Coherent averaging of sub-tomograms is a method for improving signal-to-noise ratios and compensating for such artifacts and therefore improving resolution. The presented application herein computes the average of the randomly orientated complexes, automatically determining the necessary unknown alignments/orientations. The algorithm applies an iterative approach, whereby sub-tomograms are aligned to estimated averages which are then recalculated from the aligned sub-tomograms and used in subsequent refinement of the alignments. The alignments between sub-tomograms and the estimated average are determined by searching for the strongest correlation score through hierarchical rotational sampling. Normalized cross-correlation is used as the measure of similarity with a special consideration for the missing wedge. By handling multiple references/averages and classifying the sub-tomograms according to their similarity with the (class) averages, a rotational invariant k-means clustering is realized that allows the classification of sub-tomograms according to their structure. Due to the high computational complexity of the multireference alignment problem, computation time is a critical issue. Hence, the developed software is parallelized using message passing interface (MPI) and adopted to run on clusters. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.05.037Termin: Mittwoch, 18.06.2008, 14:00 Uhr s.t. Vorträge:14:00 Uhr - Jörg Blank: Dimension-adaptive Sparse GridsAdapting algorithms to sparse grids can be quite challenging. Dimension-adaptive sparse grids allow the combination of solutions for regular grids to take advantage of the sparse structure. It even allows the use of existing solvers and encourages parallelization.
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.037Termin: Mittwoch, 11.06.2008, 15:00 Uhr s.t. Vorträge:15:00 Uhr - Christian Jirauschek: Monte Carlo simulation of quantum cascade lasers (Institute for Nanoelectronics, TUM)Monte Carlo (MC) simulation techniques allow for the detailed modeling of the carrier transport in semiconductor structures. We discuss the application of the MC method to the simulation of quantum cascade lasers, serving as a typical example of nanostructured semiconductor devices relying on custom-tailored quantized electron states. Here we use a self-consistent ensemble MC method and show recently obtained results for terahertz quantum cascade lasers.
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 04.06.2008, 15:00 Uhr s.t. Vorträge:15:00 Uhr - Yevgeniy Terekhin: Modern compute clusters: from hardware to applicationThe task of my work is parallelization and optimization of an algorithm employed in MD simulations. For the parallelization, message passing approach. In the implementation of the parallel code, the MPI is used. The focus of the parallelization is mainly to build a Cartesian topology, the exchange of data within it, and others. To optimize the performance of the code methods such as loop unrolling, variable renaming etc. are used. To optimize communication within the processes I use asynchronous transfer of data. The current status of the implementation and results are presented. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 03.06.2008, 14:00 Uhr s.t. Vorträge:14:00 Uhr - Michael Lieb: A Full Multigrid Implementation on Staggered Adaptive Grids for the Pressure Poisson Equation in Computational Fluid Dynamics (MA)Multigrid methods are among the most efficient algorithms for solving certain kinds of physical problems. The Poisson equation of the Navier Stokes equations is a popular example for such a problem. In this thesis, a full multigrid algorithm based on staggered grids is implemented within a cache efficient, parallel PDE framework for adaptive Cartesian grids. The multigrid algorithm works with different stencils on adaptive grids and solves the Poisson equation in two and three dimensions. 14:20 Uhr - Thomas Auckenthaler: Parallelisierung von Matrixoperationen in einem Quantum-Control-Problem (DA)Es gibt bereits effiziente Implementierungen für ie parallele Multiplikation sehr großer Matrizen. Beim sogenannten Prefix Problem, welches u.a. bei einem Quantum Control Problem auftritt, sind für eine Reihe von Matrizen alle Zwischenprodukte zu berechnen. Ziel der Arbeit ist eine parallele Implementierung des Prefix Problems, das auch bei relativ kleinen Matrixgrößen möglichst effizient arbeitet. Dabei werden zwei Ansätze ausprobiert, die beide auf die Ausnutzung von Lokalitätseigenschaften abzielen: Zum einen eine Zerlegung der Matrizen in Blöcken in Kombination mit einer geschickten Kommunikation und Synchronisation. Zum anderen ein Ansatz der auf Peanokurven basiert und zur Ausnutzung der Lokalität einen Cache verwendet. 14:50 Uhr - Johannes Schwaiger: Adaptive Discontinuous-Galerkin-Verfahren zum Lösen der Flachwassergleichungen mit verschiedenen Randbedingungen (DA)Mit den aus den Navier-Stokes-Gleichungen abgeleiteten Flachwassergleichungen lassen sich beispielsweise Gezeitenbewegungen oder die Ausbreitung von Tsunamiwellen gut beschreiben. Zur numerischen Lösung wird das Discontinuous-Galerkin-Verfahren eingesetzt, welches sich aufgrund seines elementorientierten Lösungsansatzes besonders gut dafür eignet. Um den numerischen Fehler dabei nicht zu groß werden zu lassen, empfiehlt es sich, nicht nur mit konstanten, sondern mit linearen Ansatzfunktionen zu arbeiten. Besonders interessant ist dabei auch das Verhalten einer Tsunamiwelle am Gebietsrand. Eine mögliche Randbedingung wäre beispielsweise eine Auslaufrandbedingung: Wie verhält sich die Welle, wenn sie auf eine Flachküste trifft? Eine weitere Randbedingung wäre eine Randwandbedinung: Wie verhält sich die Welle, wenn sie auf ein Hindernis, z.B. eine Steilküste, trifft? |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Montag, 02.06.2008, 14:00 Uhr s.t. Vorträge:14:00 Uhr - Johannes Hölzl: Automatischer Korrektheisbeweis von Algorithmen zur Hierarchischen Basistransformation (IDP)Bereits einfache Algorithmen, die auf dünnen Gittern arbeiten, sind sehr komplex und mehrfach rekursiv. Sie basieren meist auf Traversierungen des Baumes der hierarchischen Basisfunktionen. Ein typischer, komplexer Algorithmus ist das sogenannte Up-Down-Verfahren, das zur Berechnung des Laplace-Operators einer Dünngitterfunktion benötigt wird. Aufgrund der hohen Komplexität der verschachtelt rekursiven Algorithmen ist es sehr mühsam, fehleranfällig und zeitaufwändig, derartige Dünngitteralgorithmen erfolgreich zu implementieren. Daher sollte im Rahmen dieses IDPs die Korrektheit eines ersten Dünngitteralgorithmus mithilfe des Isabelle Systems interaktiv bewiesen werden. Die gewonnenen Erkenntnisse und Theoreme können dann für verwandte Algorithmen meist mit relativ geringem Aufwand angepasst werden. Im Vortrag werden der Up-Down-Algorithmus und die Funktionsweise von Isabelle erklärt sowie der erfolgreiche Beweis des Up-Down Algorithmus vorgestellt. 14:45 Uhr - Benjamin Peherstorfer: Adaptive Sparse Grid Representation for Indicator Functions (BA)Für carakteristische Funktionen achsparalleler Rechtecke wird die Genauigkeit der Bestapproximation in Dünngitterräumen untersucht. Hierfür wird die Menge der durch die approximierte Funktion falsch zugeordneten Punkte bestimmt. Der untersuchte Ansatz nutzt Eigenschaften der Dünngitter-Repräsentation aus, um eine möglichst gute Approximation der Höhenlinie, die der Rechtecksgrenze entspricht, zu errechnen. In diesem Zusammenhang wurden die beiden Verfahren "Marching Squares" und "Quad Squares" implementiert. Um den Fehler zu bestimmen, wird die Fläche zwischen Soll-Linie und approximierter Höhenlinie bestimmt. Dadurch ist schließlich eine Gegenüberstellung von Fehler und Level des benutzten Gitters, Aufwand des Verfahrens oder Verfeinerungsgrad des Gitters möglich. 15:15 Uhr - Marcin Salaterski: Storing Results of Parameterised CFD Simulations Using Sparse Grid Techniques (MA)Applications and simulations that depend on results of other simulations have the disadvantage that each "function evaluation" equals a whole run of a simulation, which is usually costly in time and resources. For example, simulating the behaviour of a car may need simulations of the tyres which again depend on multiple parameters, like the condition of the roadbed, the diameter of the wheel, the tyre tread pattern and the current speed. It would be advantageous to simulate the tyres for many combinations of the parameters in advance (i.e. do many function evaluations), to store the results and to interpolate between the function evaluations, when a simulation result is needed. The current Masters Thesis is a first prototype on how sparse grids can achieve this for a simple CFD simulation. The driven cavity, based on the CFD lab code, was simulated for different parameter settings at the LRZ Linux Cluster. The results of the sparse grid interpolation is shown. 15:40 Uhr - Deepak Pandey: Regression with Spatially Adaptive Sparse Grids in Financial Applications (MA)The aim of Regression is to identify and model dependencies between a dependent variable and one or multiple independent variables in numerical data. Regression techniques compute a "best fit" to the data with regard to some metrik. Mostly, least squares or related measures are used to determine the quality of the fit. Given a function space, the function that best fits the data is to be identified. Spatially adaptive sparse grids shall be examined for the estimation of "best fit" functions with respect to the least square measure. This is needed in financial applications, for example in path dependent options, such as the American option. Especially non-smoothness and extrapolation into areas with few points have to be dealt with. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 30.04.2008, 15:00 Uhr s.t. Vorträge:14:00 Uhr - Lennart Johansson: Einsatz der Dünngitterklassifikation für Benchmark-ProblemeDurch die wachsende Bedeutung der intelligenten Datenanalyse in Wissenschaft und Wirtschaft sind die Einsatzgebiete heutiger Klassifikationsverfahren vielfältig. Ob in der Medizin zur Interpretation von Untersuchungsergebnissen, in Banken zur Beurteilung der Kreditwürdigkeit von Kunden oder in Unternehmen zur Selektion potentieller Interessen von Direct-Mailing-Aktionen. In dieser Diplomarbeit wurde die Dünngitterklassifikation mit verschiedenen, bereits etablierten Verfahren, darunter auch Support-Vektor-Maschinen und Neuronalen Netzen verglichen. Dazu wurden eine Reihe von Benchmark-Datensätzen herangezogen, die dank unterschiedlicher Größe und Beschaffenheit eine weite Bandbreite von Problemstellungen abdecken. Um einen Vergleich herstellen zu können, wurde der Dünngitterklassifikator in Weka (Java) integriert, das viele Klassifikationsverfahren beinhaltet. Es wurde eine Benchmarkumgebung entwickelt, die die Evaluierung aller Klassifikatoren mittels verschiedener Validierungstechniken ermöglicht. Des weiteren wurden Dimensionsreduktionsverfahren untersucht und Techniken zur automatischen Selektion geeigneter Parameter (Regularisierungsgrad, Anzahl der Verfeinerungen) der Dünngitterklassifikation implementiert.
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: t.b.a.Termin: Mittwoch, 23.04.2008, 11:00 Uhr s.t. Vorträge:10:45 Uhr - Christian Böck (DA): Discontinuous-Galerkin-Verfahren zum Lösen der Flachwassergleichungen auf adaptiven DreiecksgitternFlachwassergleichungen, abgeleitet von den Navier-Stokes-Gleichungen, werden benutzt, um den vertikalen Fluss, beispielsweise bei Gezeitenbewegungen oder Tsunamiwellen zu beschreiben. Diese Gleichungen sollten mithilfe des Discontinuous-Galerkin-Verfahren gelöst werden. Das Discontinuous-Galerkin-Verfahren ist eine Mischung aus Finite-Elemente- und Finite-Volumen-Verfahren, das die Vorteile beider Verfahren zu kombinieren versucht, wie die Behandlung komplexer Geometrien und die Massen- bzw. Impulserhaltung. Besonders interessant ist dabei aber der stark elementorientierte Lösungsansatz, der auf einem adaptiven Dreiecksgitter realisiert wurde. 11:10 Uhr - Alexander Heinecke (BA): Cache-optimierte Datenstrukturen und Algorithmen für dünnbesetzte Matrizen
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: t.b.a.Termin: Mittwoch, 23.04.2008, 11:00 Uhr s.t. Vorträge:11:00 Uhr - Sebastian Hanigk (DA): Parallele Matrixmultiplikationsstrategien unter Ausnutzung raumfüllender Kurven und schneller Kommunikation
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: t.b.a.Termin: Mittwoch, 09.04.2008, 10:30 Uhr s.t. Vorträge:
10:30 Uhr - Stefan Wasner (DA): Erstellung eines adaptiven Linked-Cell-Verfahrens zur
effizienten Simulation ungleichmäßig verteilter Moleküle
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: t.b.a.Termin: Montag, 18.02.2003, 10:00 Uhr s.t. Vorträge:10:00 Uhr - Janos Benk, Fayssal Moufatich and Deepak Pandey: Financial Model FitterFinal Presentation of the BGCE Computational Finance Project The Task of the project was to create an add-on to the Thetaris (former Theta Engineering) software Theta Suite in Matlab. Models created in ThetaML are to be calibrated to market prices or historical data. The main tasks were to realize
Different techniques, monte carlo as well as adaptive sparse grids, have been used. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: t.b.a.Termin: Montag, 11.02.2003 11:00 Uhr s.t. Vorträge:11:00 Uhr - Matous Sedlacek: Effiziente parallele Implementierung des MSPAI Präkonditionierers unter Verwendung von Caching-Strategien und QR-Updates (DA)Beim Lösen hochdimensionaler linearer Gleichungssysteme ist die Kondition der Systemmatrix ausschlaggebend ob bzw. wie schnell iterative Verfahren terminieren. Durch Präkonditionierung kann die Kondition des Ausgangssystems verbessert werden um das nachfolgende Lösen zu beschleunigen. Für dünnbesetzte Problemstellungen bietet der SPAI-Ansatz einen parallelisierbaren Algorithmus der die Inverse der Systemmatrix approximiert, die anschließend zur Transformation in ein äquivalentes System besserer Kondition verwendet wird. Es wird ein modifizierter SPAI vorgestellt, der sich zur bestehenden Referenzimplementierung sowohl über methodische als auch technische Erweiterungen abgrenzt. Lassen sich über Targeting jetzt auch allgemein rechteckige und komplexe Matrizen präkonditionieren, so sind über Probing Matrixapproximationen unter gegebenen Nebenbedingungen möglich. Aufgrund der dünnbesetzten Struktur der Ausgangsmatrix müssen häufig äquivalente Berechnungsschritte ausgeführt werden. Über einen Caching-Ansatz wird untersucht, ob bzw. wie stark der Rückgriff auf gecachte Daten (bei Redundanz) zu performanteren Ergebnissen führt. Die Verwendung von QR-Updates zur Erweiterung bestehender QR-Zerlegungen innerhalb des SPAI ermöglicht erstmals Einblick in deren Laufzeitauswirkung. Zusätzlich wird die Verwendung dünnbesetzter QR-Zerlegungen sowohl innerhalb der QR-Updates als auch der anfallenden Least-Squares-Probleme untersucht. Mit Hilfe von sogenannten Oberpatterns lässt sich die Dünnbesetztheit des Präkonditionierers direkt steuern. Diesbezüglich wird innerhalb der parallelen Umgebung die Auswirkung von im Voraus angeforderten Datensätzen beobachtet. Neben den einzelnen optimierungsspezifischen Laufzeitergebnissen wird ein Vergleich zur bestehenden Referenzimplementierung die Performanz des MSPAI präsentieren. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 30.01.2003 11:00 Uhr s.t. Vorträge:11:00 Uhr - Maximilian Steff: Entwurf und Entwicklung einer verteilten VerkehrssimulationsumgebungFür einen existierenden Verkehrssimulator soll eine Umgebung entwickelt werden, so dass die Simulationsaufgaben auf mehrere Rechner verteilt werden können. Schwerpunkt der Arbeit ist daher einerseits der Entwurf einer stabilen und robusten unterliegenden peer-to-peer-Netzwerkstruktur. Andererseits müssen die automatisch mit der verteilten Struktur auftretenden Probleme gelöst werden; etwa dynamische Vorgänge wie Ausfall oder Hinzukommen einzelner Systeme oder unterschiedliche Berechnungsgeschwindigkeiten der beteiligten Systeme. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 12.12.2007 11:00 Uhr c.t. Vorträge:11:15 Uhr - Peter Koltai: The sparse Ulam methodThe global macroscopic behaviour of a dynamical system is encoded in the eigenfunctions of a certain transfer operator associated to it. For systems with low dimensional long term dynamics, efficient techniques exist for a numerical approximation of the most important eigenfunctions. They are based on a projection of the operator onto a space of piecewise constant functions supported on a neighborhood of the attractor -- Ulam's method. In this talk we develop a numerical technique which makes Ulam's approach applicable to systems with higher dimensional long term dynamics. It is based on ideas for the treatment of higher dimensional partial differential equations using sparse grids. We establish statements about their complexity and convergence properties and present numerical examples. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 12.12.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Christian Böck: Discontinous-Galerkin-Verfahren zum Lösen der Flachwassergleichungen auf adaptiven Dreiecksgittern (DA)Flachwassergleichungen, abgeleitet von den Navier-Stokes-Gleichungen, werden benutzt, um den vertikalen Fluss, beispielsweise bei Gezeitenbewegungen oder Tsunamiwellen zu beschreiben. Für deren Lösung soll das Discontinous-Galerkin-Verfahren zum Einsatz kommen, eine Mischung aus Finite-Elemente- und Finite-Volumen-Verfahren, das die Vorteile beider Verfahren zu kombinieren versucht, wie die Behandlung komplexer Geometrien und die Massen- bzw. Impulserhaltung. Besonders interessant ist dabei aber der stark elementorientierte Lösungsansatz, der auf einem adaptiven Dreiecksgitter realisiert werden soll. 11:25 Uhr - Stefan Wasner: Erstellung eines adaptiven Linked-Cell-Verfahrens zur effizienten Simulation ungleichmäßig verteilter Moleküle (DA)Eine bestehende Molekular-Dynamik Simulation wird weiterentwickelt um auch bei ungleichmäßiger Verteilung der Moleküle innerhalb des Berechnungsgebietes optimale Effizienz zu erreichen. Ein Beispiel hierzu ist ein Gas, in dem sich lokale Cluster (Tropfen) gebildet haben. Bisher wurde das dreidimensionale Berechnungsgebiet durch ein Gitter unterteilt, das aus verlinkten kubischen Zellen mit einheitlicher Kantenlänge besteht. Allerdings sind homogene Gitter im vorliegenden Fall und bei verwandten Aufgabenstellungen ineffizient, weil sie die spezifischen Anforderungen von Teilgebieten mit variierender Teilchendichte nicht berücksichtigen. Dort, wo aufgrund von Clustering die Molekül-Dichte deutlich erhöht ist, sind kleine Zellen am effizientesten, während in Gebieten mit unverändert geringer Dichte große Zellen optimal sind. Deshalb wird ein adaptives Linked-Cell-Verfahren entwickelt, das in Abhängigkeit von der lokalen Dichte der Moleküle entweder Grobzellen oder Feinzellen anlegt. Die Datenstruktur wird dabei in festen Zeitintervallen aktualisiert um auch eine Anpassung der Zellengrößen n eine sich verändernde räumliche Position der Cluster (Tropfen) zu ermöglichen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 05.12.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Christine Radzieowski: Numerische Simulation der Ausbreitung von Ozeanwellen auf dynamisch-adaptiven Dreiecksgittern (DA)Die vorliegende Arbeit beschäftigt sich mit der Simulation der Ausbreitung von Ozeanwellen auf einem diskreten Gitter. Zur Diskretisierung werden gleichschenklig-rechtwinklige Dreiecke verwendet. Die mathematische Grundlage der Diskretisierung bildet die Finite-Elemente-Methode. Um eine effiziente Linearisierung der Elemente zu erhalten, wird die Sierpinki-Kurve, eine spezielle raumfüllende Kurve, eingesetzt. Durch die Dreiecke kann das Gitter sehr einfach an lokale örtliche Gegebenheiten angepasst werden, d.h. entweder verfeinert oder vergröbert werden. Um die Ausbreitung von Wellen simulieren zu können, werden verschiedene numerische Zeitschrittverfahren eingesetzt, die auf den bestehenden zellorientierten Ansatz aufbauen. Die unterschiedlichen Zeitschrittverfahren, die eingesetzt werden, werden näher erläutert und an Hand von Testreihen mit einander verglichen. Zu diesem Zweck wird der zeitliche Verlauf der berechneten Ergebnisse in Matlab visualisiert. Die Arbeit schließt mit einem kurzen Ausblick auf eine mögliche Erweiterung der Simulation und der Implementierung weiterer Verfahren. Der erste Vortrag beschäftigte sich mit den Grundlagen der numerischen Verfahren. Dieser Vortrag konzentriert sich auf die Adaptivität des Gitters und die Testergebnisse. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 21.11.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Abdellatif Zaouia: Erstellen eines scharfen Bildes aus einer unscharfen Fokusserie (DA)Erstellen eines scharfen Bildes aus einer unscharfen Fokusserie. Diese Aufgabe ist in zwei Aufgaben eingeteilt. Zuerst die Bilder müssen registriert werden, damit die Bilder hundertprozentig deckungsgleich ausgerichtet werden. Nachher kommt die zweite Aufgabe im Spiel, die scharfen Teile aus den registrierten Bildern zu extrahieren. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 31.10.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Robert Tosch: Entwicklung eines Anfoderungs-Management Tools auf Wiki-Technologie (DA)11:15 Uhr - Christine Radzieowski: Numerische Simulation der Ausbreitung von Ozeanwellen auf dynamisch-adaptiven Dreiecksgittern (DA)Die vorliegende Arbeit beschäftigt sich mit der Simulation der Ausbreitung von Ozeanwellen auf einem diskreten Gitter. Zur Diskretisierung werden gleichschenklig-rechtwinklige Dreiecke verwendet. Die mathematische Grundlage der Diskretisierung bildet die Finite-Elemente-Methode. Um eine effiziente Linearisierung der Elemente zu erhalten, wird die Sierpinki-Kurve, eine spezielle raumfüllende Kurve, eingesetzt. Durch die Dreiecke kann das Gitter sehr einfach an lokale örtliche Gegebenheiten angepasst werden, d.h. entweder verfeinert oder vergröbert werden. Um die Ausbreitung von Wellen simulieren zu können, werden verschiedene numerische Zeitschrittverfahren eingesetzt, die auf den bestehenden zellorientierten Ansatz aufbauen. Die unterschiedlichen Zeitschrittverfahren, die eingesetzt werden, werden näher erläutert und an Hand von Testreihen mit einander verglichen. Zu diesem Zweck wird der zeitliche Verlauf der berechneten Ergebnisse in Matlab visualisiert. Die Arbeit schließt mit einem kurzen Ausblick auf eine mögliche Erweiterung der Simulation und der Implementierung weiterer Verfahren. Da der Vortrag zwei geteilt wird, werde ich im ersten Teil auf die Grundlagen und die numerischen Verfahren eingehen. Die Ergebnisse werden beim zweiten Mal vorgestellt. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Mittwoch, 24.10.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Wolfgang Eckhardt: DaStGen — Konzeption und Design eines Datenstrukturgenerators für HPC-Applikationen (SEP)Bei der Entwicklung des PDE-Lösers Peano fiel auf, dass mit einer Verringerung des Volumens der verwendeten Daten oft ein immenser Performancevorteil einhergeht. Außerdem wurden große Gemeinsamkeiten zwischen den verwendeten Datentypen für verschiedene Anwendungsszenarien (z.B. stationäre und instationäre Strömungssimulation mit oder ohne expliziter Assemblierung) bemerkt. Um die Entwicklung von HPC-Anwendungen wie Peano einfacher, schneller und flexibler zu gestalten, wurde im Rahmen dieses SEPs eine Domain-Specific-Language zur Modellierung dieser Datenstrukturen entworfen sowie ein entsprechender Compiler nach C++ entwickelt. Dieser erlaubt es, den Code für Klassen automatisch zu generieren und dabei unter anderem Basisdatentypen wie boolsche Werte oder Ganzzahlen mit eingeschränktem Wertebereich zur Verringerung des Datenvolumens effizient in Bitfelder zu packen, zu persistierende Typen zusammenzufassen und Code zur Parallelisierung via MPI zu erzeugen. Es werden ein Überblick über das Vorgehen bei der Entwicklung von DastGen gegeben sowie die Möglichkeiten des Datenstrukturgenerators anhand von Beispielen erklärt. 11:25 Uhr - Klaus Daubner: Datenaustausch und Geometriebehandlung bei der Simulation von Fluid-Struktur Wechselwirkungen mit partitionierten Ansätzen (DA)
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.05.037Termin: Mittwoch, 17.10.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Jörg Blank, Richard Röttger: Data Mining with Sparse Grids (SEP)Im Rahmen dieses SEPs wurde zum einen eine effiziente Implementierung der Dünngitterklassifikation in Python/C++ erstellt. Diese wurde bereits erfolgreich für Parameterstudien im Rahmen des GridSFEA-Frameworks für Parameterstudien verwendet und schlägt den Maple-Vorgänger in puncto Geschwindigkeit um Längen. Zum anderen wurden verschiedene Alternativen zum Laplace als Glattheitsoperator zur Regularisierung untersucht. An einigen typischen Klassifikationsbeispielen werden konkrete Ergebnisse gezeigt. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 18.09.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Oliver Meister: Implementierung eines stationären Navier-Stokes-Lösers (IDP)Im Abschlussvortrag zum IDP "Implementierung eines stationären Navier-Stokes-Lösers" wird erläutert, wie die Bearbeiter einen stationären Löser für die imkompressiblen Navier-Stokes-Gleichungen in die Peano-Umgebung integriert haben. Dabei wird grob auf die wesentlichen Arbeitsschritte und einige Probleme eingegangen, die während des Projekts aufgetreten sind. Schließlich wird noch anhand einiger Tests die Funktionalität des Lösers demonstriert. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 11.09.2007 11:00 Uhr s.t. Vorträge:10:00 Uhr - Ekaterina Elts: Erweiterung der Molekulardynamik mit internen Freiheitsgradenms2 ist ein Programmpaket für klassische Molekulardynamik-Simulationen, das ursprünglich von Jadran Vrabec und Bernhard Eckl am Institut für Technische Thermodynamik und Thermische Verfahrenstechnik, Universität Stuttgart implementiert wurde. Bis jetzt war es möglich nur relativ einfache Molekularmodelle mit dem ms2 Programm zu simulieren, und zwar konnte man nur die starren Molekularmodelle benutzen. Das ist genug für die Simulation der kleinen Molekülen, wie, zum Beispiel, Kohlendioxid ist, aber für die größeren Molekülen, wie Alkane mit der Kohlenstoffkette 4 oder mehr Elemente lang sind, braucht man auch Konformationsänderungen der Molekülen berücksichtigen, deshalb muss man nicht starre, sondern flexible Molekularmodelle benutzen. In diesem Vortrag geht es um die Erweiterung der Molekulardynamik mit internen Freiheitsgraden um die Simulation der flexiblen Moleküle zu ermöglichen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 07.08.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Johannes Hummel: Konzeption und Entwicklung eines Werkzeugs zur automatischen Generierung von Blockdiagrammen aus Mehrkörpersystem-Modellen (SEP, Intec)Einfache 3D-Modelle sind meist berschaubar und leicht zu verstehen. Heutzutage werden allerdings immer aufwändigere und komplexere Modelle benötigt, um technische und physikalische Vorgänge bspw. aus dem Maschinenbau am Rechner korrekt darzustellen oder zu simulieren. Ein weiteres Problem ist, dass 3D-Modelle bzw. 3D-Animationen nicht darauf ausgelegt sind, die Verbindungen einzelner Körper, auf die es bei der Mehrkörpersimulation (MKS) ankommt, vereinfacht oder direkt darzustellen. Mehrkörpersysteme bestehen aus mehreren Körpern, die durch festgelegte Verbindungen wie Gelenke oder Kräfte untereinander zusammenhängen. Dadurch können auch komplexe Vorgänge (z.B. in Motoren oder an Federbeinen) am Rechner simuliert werden. Jedoch schwindet mit mehreren hundert Körpern, die so ein Modell umfassen kann, sehr schnell die Übersichtlichkeit und Verständlichkeit, was zu Fehlern im Modell seitens der Anwender führen kann. In der vorliegenden Arbeit werden hierfür Methoden vorgestellt, die es Anwendern von MKS erlauben durch automatisch generierte Explosionszeichnungen der zu Grunde liegenden Modelle diese schnell und einfach zu überprfen bzw. sich ohne externe Hilfe in neue Modelle einzuarbeiten. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 17.07.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Matous Sedlacek: Effiziente parallele Implementierung des MSPAI-Algorithmus mittels Caching-Strategien (SEP)Beim Lösen hochdimensionaler linearer Gleichungssysteme ist die Kondition der Systemmatrix ausschlaggebend ob bzw. wie schnell iterative Verfahren terminieren. Durch Vorkonditionierung wird die Kondition des Ausgangssystems verbessert um das nachfolgende Lösen des Systems zu beschleunigen. Für dünnbesetzte Problemstellungen bietet der SPAI-Ansatz einen parallelisierbaren Vorkonditionierungs-Algorithmus der die Inverse der Systemmatrix approximiert, die anschließend zur Transformation in ein äquivalentes System mit besserer Kondition benützt wird. Aufgrund der dünnbesetzten Struktur der Ausgangsmatrix, müssen häufig äquivalente Berechnungsschritte ausgeführt werden. Über Caching-Ansätze soll untersucht werden, ob bzw. wie stark der Rückgriff auf gecachte Daten bei Redundanz zu einem performanteren SPAI-Ansatz verhilft. 11:30 Uhr - Andi Roy: Untersuchung dünnbesetzter QR-Verfahren bei der Berechnung dünnbesetzter approximativer Inversen (Diplomarbeit)In der Diplomarbeit wurde untersucht, ob bzw. wie die Laufzeit des Vorkonditionierer SPAI (Sparse Approximate Inverses) durch die Anwendung dünnbesetzter QR-Zerlegung, QR-Updates und float- basierten QR-Zerlegung mit iterativer Verbesserung verringert werden kann. Im Fall der dünnbesetzten QR-Zerlegung wurde das Lösen von Least-Squares-Problemen mit Hilfe des CSparse-Paketes von T. Davis, verglichen mit den herkömmlichen Methoden des LAPACK- Paketes. Um Aussagen über die Laufzeitverbesserungen der QR-Updates zu treffen, werden die verschiedenen Durchführungsmöglichkeiten der QR- Updates aufgezeigt und eine effizientes Verfahren in der SPAI-Anwendung beschrieben. Zusätzlich werden verschiedene Implementierungen des QR-Updates miteinander verglichen. Im letzten Punkt wird auf die Laufzeitersparnis durch die Verwendung eines kleineren Datentypes bei der QR-Zerlegung eingegangen. Die Genauigkeit der entstandenen Lösung soll durch die Anwendung von Verbesserungsschritten erhöht werden. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 10.07.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Yesiltas Canan: Konzept und Entwicklung paralleler Algorithmen für das Hochleistungsrechnen in Grid (Diplomarbeit)In dieser Diplomarbeit wird ein Konzept für parallele Algorithmen erstellt. Es wird auf die Thematik eingegangen, wie man diese Algorithmen in einer Grid Umgebung realisieren kann. Dabei wird für die Lösung eines linearen Gleichungssystems das CG Algorithmus angewendet und wird so weit modifiziert bis dieses in einer Grid- Umgebung verwendet werden kann. Beim Entwurf wird zum Ziel gesetzt ein Konzept zu entwickeln, welches beschreibt wie eine Vielzahl von Daten in kleinere Mengen geteilt wird und wie diese Teile(tasks) zu verteilten Prozessoren weitergegeben wird, um die Leistung des Rechenvorganges zu verbessern. Als ein Modell für das ganze System wird das Workpool- Modell verwendet, das aus mehreren Sub- Workpools besteht. Jedes einzelne Sub- Workpool befindet sich als Controller in einem separaten Cluster wobei es auch die Organisation seiner Arbeitsumgebung auch übernimmt. Für die gesamten Aufgaben ist das Master- Pool verantwortlich und befindet sich in Kommunikation mit dem Sub- Workpool. Eine sehr wichtige Rolle spielt bei dieser Arbeit die Gewährleistung der Ressourcen. Dafür wird auch ein Mechanismus entworfen, welches zeigt wie das System auf einen Fehler reagiert. Beim Vortrag wird dieses System grob dargestellt. Zu dem wird gezeigt welche Reaktion die parallelen Algorithmen beim Auftreten eines Fehlers (z. B eine Ressource ist nicht erreichbar) aufweisen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 02.07.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Sebastian Frühling: Automatische Generierung synthetischer Verkehrsnetze (Diplomarbeit)Im Rahmen der DA entsteht ein Verfahren zur automatischen Generierung von Verkehrsnetzen beliebiger Größe. Ausgehend von einer bestimmten Anzahl von Städten (Ballungsräumen) wird in einem iterativen Verfahren ein Verkehrsnetz aufgebaut. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 19.06.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Kevin Tunstall: Erstellung eines Softwaretools zur automatisierten Berechnung und graphischen Darstellung von Eigenspannungen (SEP)Durch unterschiedlichste Fertigungsverfahren werden Eigenspannungen in Bauteile induziert. Hierzu gehören u. a. Guss-, Umform- und Umwandlungseigenspannungen. Die Kenntnis des Eigenspannungszustands ist zur Bauteilauslegung und Lebensdauerberechnung heute unerlässlich, da sich die Eigen- und Lastspannungen während des Betriebs überlagern und die Lebensdauer des Bauteils negativ als auch positiv beeinflussen können. Ein weit verbreitetes Messverfahren zur Ermittlung von Eigenspannungen ist das Bohrlochverfahren, wo eine Miniaturbohrung schrittweise in ein Bauteil eingebracht wird und die dabei auftretenden Verformungen mittels Dehnungsmessstreifen an der Oberfläche des Bauteils aufgenommen werden. Durch eine Finite-Elemente-Simulation (FE-Simulation) werden Kalibrierkurven ermittelt, um aus gemessenen Dehnungsverläufen den zweiachsigen Eigenspannungszustand zu berechnen. Auf Basis vorhergehender Arbeiten, bei denen die Zusammenhänge von Dehnungen und Eigenspannungen mittels FE-Simulation funktional beschrieben wurden, soll der Fokus dieser Arbeit auf der Erstellung eines automatisierten Softwaretools liegen, in dem die bereits ermittelten Ergebnisse integriert und die Ergebnisse graphisch dargestellt werden. 11:30 Uhr - Stefanie Hörmann: Entwicklung und Analyse modifizierter unvollständiger LU-Zerlegungen mittels ProbingViele Anwendungen erfordern ein effizientes Lösen großer linearer Gleichungssysteme. Da die Konvergenzgeschwindigkeit von Lösern wie beispielsweise dem CG Algorithmus stark von der Kondition der Koeffizientenmatrix abhängt, empfiehlt es sich oft, eine Präkonditionierung durchzuführen. In dieser Diplomarbeit werden verschiedene Techniken der Präkonditionierung vorgestellt, analysiert und miteinander verglichen. Sie basieren grundlegend auf zwei vollkommen unterschiedlichen Konzepten: Auf der Präkonditionierung durch unvollständige Faktorisierung oder der direkten Approximation der Inversen der Koeffizientenmatrix. Vertreter des ersten Konzepts sind beispielsweise die ILU (incomplete LU), MILU (modified incomplete LU), IC (incomplete Cholesky) und MIC (modified incomplete Cholesky). Vertreter des zweiten Konzepts ist z.B. der SPAI (sparse approximate inverses) Algorithmus. Seine Erweiterung, welche auch das Einbinden von Probing Bedingungen erlaubt, kann als Präkonditionierer sowohl basierend auf dem ersten, wie auf dem zweiten Konzept eingesetzt werden. Hat die Koeffizientenmatrix eine bestimmte, häufig auftretende Blockstruktur, so lässt sich ihre Faktorisierung auch durch die RBIC (relaxed block incomplete Cholesky), wiederrum mit Hilfe des SPAI bzw. MSPAI Algorithmus oder durch die sogenannte unvollständige direkte Lösung berechnen. Die jeweiligen Präkonditionierungstechniken werden vorgestellt und anhand von Beispielen miteinander verglichen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 12.06.2007 11:00 Uhr s.t. Vorträge:10:30 Uhr - Eric Wei: Concept and Implementation of the Communication Protocol for a Distributed Real-time Content Matching System (Master Thesis - Room 02.05.037)In most current existing information retrieval systems, a user typically enters a number of key words as a search query, then receives documents that contain these words as search result. Disadvantages of this solution include:not capable to search with long texts; centralized spidering required; efficient caching of the search queries not easily possible, etc. We try to take an entirely new angle at search to overcome the above problems. Its new information retrieval system applies innovative technologies include: real-time content matching; on-the-fly clustering and peer-to-peer indexing, etc A communication protocol is essential to the system. The goal of this paper is to describe the design and implementation of an efficient, robust and extendable protocol, as well as a practical application over the protocol. 11:00 Uhr - Thomas Nitsche: Schwarm-optimierter Verkehrsfluss (SEP)Schwarmintelligenz ist ein faszinierender Ansatz um komplexe Probleme mit Hilfe Agenten zu loesen, die einfache Regeln befolgen. Diese Technik, die bereits ein breites Anwendungsspektrum in der Informatik gefunden hat, wurde im Rahmen des Systementwicklungsprojektes auf das Anwendungsfeld der mikroskopischen Verkehrssimulation ütgen. Mit Hilfe des dazu entwickelten Simulators wurde eine Grundlage geschaffen um schwarmgeleitete Wegfindungsverfahren in großflächigen Verkehrsnetzen zu testen. 11:15 Uhr - Pavlina Sholeva: Quantitative Modellierung von Finanzprozessen in UML (SEP)ThetaML bietet eine Integration von mathematischen Notationen für die formale Beschreibung von Gesetzen und Verhalten von Finanzprozessen und graphische Werkzeuge (Diagramme) für ie vorstellungsnahe Beschreibung von Struktur. Im Rahmen dieses Projekts wurde das Datenmodell zu ThetaML entwickelt und damit die Basis für die Entwicklung eines Softwaretools zur Modellierung von Finanzprozessen geschaffen. Die verschiedenen Repräsentationen des Datenmodells (UML, XML, Java-Klassen) wurden mit dem Eclipse Modeling Framework erzeugt. Des weiteren wurden acht konkrete Optionen modelliert und Java-Methoden bereitgestellt für das Laden und Speichern von in XML serialisierte .thetaml-Dateien. Es wurde auch ein Traverser geschrieben um die Überprüfung von Modellen auf Zyklenfreiheit zu gewährleisten. 11:30 Uhr Zuzana Kristekova, Tayfur Coskun - Entwicklung eines Eclipse Plugins zur grafischen Editierung von finanzmathematischen Problemen (SEP)Das Ziel dieser Arbeit ist mit Hilfe des EMF/GEF/GMF Eclipse-Frameworks einen prototypischen, grafischen Editor für ThetaML zu erstellen. Das Eclipse Framework ist dazu bestimmt die Entwicklung eines graphischen Editors im Sinne einer Model-Driven Architecture zu unterstützen. Zunächst wird mit Hilfen von EMF das gewünschte grafische Modell in Form von XML-Dokumenten beschrieben. GEF stellt die Basisfunktionalität des Editors zur Verfügung, beispielsweise eine Werkzeugpalette oder die Möglichkeit von Drag&Drop. GMF dient dazu den Entwicklungsprozess weiter zu vereinfachen, indem es Details wie z.B. Draw2D kapselt. Das spezielle Verhalten der Editorimplementierung kann der Programmierer dann selbst in Java implementieren. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 05.06.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Sebastian Hanigk: Parallele Matrixmultiplikationsstrategien unter Ausnutzung raumfüllender Kurven und schneller Kommunikation (DA)The multiplication of large matrices is an important part of many numerical algorithms; being able to increase its efficiency benefits therefore a large class of problems. Key to large problem sizes or faster computation is the parallelisation of an algorithm; usually this brings with it a loss of efficiency due to communication issues. With the increasing number of massive-parallel clusters in the supercomputer ranks, the need for algorithms with minimal communication penalty is eminent. In this thesis, two algorithms will be discussed: the SRUMMA algorithm which makes use of overlapping communication and computation via the facilities of the high-performance communication networks available and secondly a newly developed algorithm based on space-filling curves which has theoretically optimal communication properties due to its temporal and spatial locality. Both algorithms will be compared against each other and against state-of-the-art library routines in synthetic benchmarks as well as a part of the quantum control GRAPE algorithm. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 29.05.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Alexander Heinecke, Stephan Günther, Robert Franz: LR-Zerlegung: Ein blockrekursiver, hardwarenaher Algorithmus (PSE)Wir werden den zweiten Teil unseres Systementwicklungsprojektes mit dem Thema "Hardware-oriented Implementation of Cache Oblivious Matrix Operations Based on Space-filling Curves" vorstellen. Nachdem bereits die Matrixmultiplikation eingehend diskutiert worden ist, werden wir diesmal den Schwerpunkt auf die Matrixfaktorisierung mit der LR Zerlegung legen. Hierbei sollen folgende Themen präsentiert werden:
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 15.05.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Mathias Baur: Integration eines längsdynamischen Fahrerassistenzsystems in der Verkehrsflusssimulation VISSIM (Diplomarbeit)ISSIM ist ein mikroskopisches Verkehrssimulationswerkzeug, das eine netzweite Simulation des inner- und außerörtlichen Verkehrs ermöglicht. Zur Beurteilung, welche Auswirkungen der Einsatz verkehrsadaptiver Regelsysteme in einzelnen Fahrzeugen auf die Verkehrslage hat, soll ein Modell eines solchen Reglers in VISSIM eingebunden werden. Anschließend ist die integrierte Reglerkomponente im Rahmen der Diplomarbeit auf die Korrektheit ihrer Funktionalität hin zu untersuchen sowie eine Wirkungsanalyse mithilfe einer modellierten Teststrecke durchzuführen. Der Vortrag soll in die Thematik einführen und einen Überblick über die verwendeten Modelle und Technologien vermitteln, die hierfür zum Einsatz kommen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 08.05.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Maximilian Steff: Swarm Intelligence für Simulationsaufgaben (SEP)Im Rahmen des SEP wurde eine Toolbox für verschiedene Anwendungsszenarien unter dem Einsatz von Swarm Intelligence Techniken entwickelt. Beispiele für Anwendungen sind Kurzwegsuche, Lastbalancierung und Verkehrssimulation. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 oder 02.05.037 MI-Gebäude (bitte Aushang an Türen beachten)Termin: Mittwoch, 25.04.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Matthias Becker: Entwicklung eines dynamischen Clustertool-Simulators sowie Entwicklung und Bewertung von Steuerungsregeln für die parallele Losbearbeitung für Clustertools (Master Thesis, AMD)Clustertools werden in der Halbleiterindustrie eingesetzt bei der Herstellung von integrierten Schaltungen auf Siliziumscheiben (Wafern). Ein Clustertool besteht aus mehreren Prozesskammern, in denen jeweils ein Prozessschritt an einem Wafer durchgeführt werden kann. Dabei kann ein Wafer mehrere Kammern nacheinander durchlaufen, und für einen Prozessschritt önnen mehrere identische Kammern vorhanden sein. Zwischen den Kammern werden die Wafer von Robotern transportiert. In dieser Master's Thesis wird ein Simulator entwickelt, der den Fluss der Wafer durch ein Clustertool nachvollzieht. Schwerpunkte dabei sind die Vermeidung von Deadlocks und eine begrenzte Vorausschau für Transporte. Steuerungsregeln für die parallele Bearbeitung von Wafern verschiedener Lose werden entwickelt und deren Leistungsfähigkeit analysiert. Die Clustertool-Simulation ist mit einer Schnittstelle zu einer Simulation einer ganzen Halbleiter-Fabrik ausgestattet, deren Funktionalitüt erprobt wird. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-Gebäude (bitte Aushang an Türen beachten)Termin: Mittwoch, 24.04.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Oliver Meister, Florian Reichl: Implementierung eines stationären Navier-Stokes-Lösers (IDP)Peano, ein am Lehrstuhl entwickeltes Projekt, dient zur Berechnung inkompressibler, laminarer Strömungen. Das vorgestellte IDP beschäftigt sich zunächst mit der Implementation eines Lösers für nichtlineare Gleichungssysteme, um schließlich die Lösung stationärer Fluid-Probleme in Peano zu integrieren. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023Termin: Dienstag, 17.04.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Sebastian Fruehling: Automatische Generierung synthetischer Verkehrsnetze (Diplomarbeit)Im Rahmen der DA entsteht ein Verfahren zur automatischen Generierung von Verkehrsnetzen beliebiger Größe. Ausgehend von einer bestimmten Anzahl von Städten (Ballungsräumen) wird in einem iterativen Verfahren ein Verkehrsnetz aufgebaut. 11:20 Uhr - Martin Schreiber: Programmierung eines Cell-Prozessors - ein Erfahrungsbericht |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 14.02.2007 11:00 Uhr s.t. Vorträge:11:00 Uhr - Mathias Baur: Integration eines längsdynamischen Fahrerassistenzsystems in der Verkehrsflusssimulation VISSIM (Diplomarbeit)ISSIM ist ein mikroskopisches Verkehrssimulationswerkzeug, das eine netzweite Simulation des inner- und außerörtlichen Verkehrs ermöglicht. Zur Beurteilung, welche Auswirkungen der Einsatz verkehrsadaptiver Regelsysteme in einzelnen Fahrzeugen auf die Verkehrslage hat, soll ein Modell eines solchen Reglers in VISSIM eingebunden werden. Anschließend ist die integrierte Reglerkomponente im Rahmen der Diplomarbeit auf die Korrektheit ihrer Funktionalität hin zu untersuchen sowie eine Wirkungsanalyse mithilfe einer modellierten Teststrecke durchzuführen. Der Vortrag soll in die Thematik einführen und einen Überblick über die verwendeten Modelle und Technologien vermitteln, die hierfür zum Einsatz kommen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 24.01.2007 11:15 Uhr s.t. Vorträge:11:15 Uhr - Axel Anonymous: Parallelisierung der Simulation eines magnetisch gekoppelten Vielteilchensystems (Diplomarbeit)Ein Schlüsselprozess bei modernen digitalen Hochgeschwindigkeitsdrucken ist die triboelektrische Aufladung des Toners durch intensive Reibung an Carrierteilchen. Während des Aufladungsvorganges erfolgt die Steuerung des Vielteilchensystems über externe magnetische Felder, welche die permanentmagnetischen Eigenschaften der Carrierteilchen nutzen. Besonders die kurzreichweitigen magnetischen Kräfte, deren Einfluss von der Stellung der magnetischen Dipole jedes einzelnen Teilchens abhängt, führen zu sehr hohem Rechenaufwand. Für die Untersuchung des Verhaltens von Toner- und Carrierteilchen während des Druckprozesses wurde das Vielteilchensystem simuliert. Das entstandene Programm wird im Rahmen dieser Diplomarbeit mit dem Linked-Cell-Verfahren optimiert und parallelisiert. Durch die ungleichmäßige Verteilung der Teilchen während der Simulation entstehen große Unterschiede bei den Rechenlasten der eingesetzten parallelen Prozesse. Diese werden durch eine dynamische Lastbalancierung ausgeglichen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Donnerstag, 21.12.2006 13:30 Uhr s.t. Vorträge:13:30 Uhr - Blagoj Petrushev: Parallel implementation of the FSPAI method for preconditioninge made a parallel implementation of the factorized sparse approximate inverse (FSPAI) method (Huckle, 2003) for obtaining preconditioning matrix for large sparse symmetric matrix. The domain decomposition is based on vertical blocks with approximately equal areas. Since the computation is columnwise, we used the compressed columns storage (ccs) scheme, so that the the communication overhead is minimized. Also, appropriate preprocessing routines are made in order to fit the data in the ccs-scheme. 14:00 Uhr - Tudor Udrescu: Grid Portals: Providing an Access Point for Grid ServicesA Grid portal is an environment that provides scientists with a point of access to Grid systems. Portal users can access data or execute grid enabled applications from a conventional web browser. Currently, the Grid architecture is being defined in terms of a collection of remote Grid services. In order to interact with these services, the portal server is designed as a container for Grid service clients that adhere to the portlet programming model. The advantage of this architecture is that it is a flexible component-based approach to building portals, allowing the users to customize their own environments. In this presentation, the successful deployment of a grid portal based on the OGCE toolkit and the development of customized JSR 168 portlets is discussed. Technologies used within the portlets to access grid services and interact with job schedulers, like Java COG Kit and DRMAA (Distributed Resource Management Application API) are also presented. The portal aims to support CFD simulations so the main focus of the portlet development was to provide robust job submission and control mechanisms for the SGE scheduler. Portlets for WG-GRAM job submission, file transfer and MyProxy credential management were also deployed. These features, along with the implementation details are presented. The potential future directions are also sketched for the project. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 20.12.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Gordana Stojceska: Statistical sampling in multidimensional parameter spaces: Algorithms and Applications (Master Thesis)This master thesis addresses inverse problems, as can be found in astrophysics, physics and engineering. A thorough statistical analysis of given observations often requires searching and sampling huge parameter spaces. It is very unlikely that a simulation depends on a number of input parameters, produces a given observation, without careful parameter tuning . This is especially true for astrophysical simulations, where the set of unknown or poorly constrained parameters is often large. To find a suitable set of input parameters to a simulation which can reproduce given observation, is typical inverse problem. The difficulty here one is faced with, consists of the ``curse of dimensionality'' and the long evaluation times per sampling point. Here we present a feasible way to solve such problem. The idea consists in using an efficient sampling algorithm to steer forward simulations which then are compared with the observational data. For the purposes of the thesis we investigated only a special category of sampling algorithms, namely statistical (random) sampling algorithms. In order to use these algorithms for a workflow engine applications, we designed and implemented a generic control element called Sampler Control Element (Sampler CE). Its main task is to provide the infrastructure for estimation of initial parameter set for a given simulation in an iterative and/or parallel fashion using the available sampling algorithms. The whole sampling process can be controlled by the Sampler CE, assisted by the sampling algorithm in the exploration of highly-dimensional parameter spaces. The internal structure and logic of the Sampler CE is designed for pluggable sampling algorithms, implemented in any programming language. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Freitag, 01.12.2006 13:00 Uhr c.t. Vorträge:13:15 Uhr - Konrad Waldherr: Effiziente Berechnung der Exponentialmatrix für dünnbesetzte, schiefhermite'sche Matrizen (Diplomarbeit)Im Rahmen des Quantum Computing ist es oft nötig, expm(i*H) zu berechnen. Der Hamiltonian H ist dabei meist eine dünnbesetzte, stark strukturierte, Hermite'sche Matrix. Theoretisch sollen für den gegebene Spezialfall, dass H sich aus einer Diagonalmatrix und einer Multilevel-zirkulanten Matrix zusammensetzt, einige Eigenschaften von H und expm(i*H) bewiesen werden (z.B. Persymmetrie). Außerdem sollen verschiedene Methoden zur Berechnung von expm(i*H) verglichen werden (Tchebycheff-Reihe, basierend auf ODE, basierend auf Eigenwerten, Scaling and Squaring,..). |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Donnerstag, 06.12.2006 11:00 Uhr c.t. Vorträge:11:15 Uhr - Ilya Saverchenko: Parameter Estimation for Simulating the Formation Process of Existing Galaxies (Master Thesis)The question of how the existing galaxies have formed is one of the scientific problems addressed at the Max-Planck-Institute for Astrophysics. According to the standard hierarchical model of galaxy formation, spiral galaxies - the ones having long spiral arms - are being created by a series of collisions and mergers of smaller ancestor galaxies. Given an astronomical observation of a medium-distant galaxy, one would like to know its formation history. Unfortunately it is not possible to take the observation, feed it into some computational model, and compute the galaxy evolution by going backwards in time. Instead the initial physical parameters have to be ``guessed'', and then a forward-going 3-dimensional simulation has to be started with those parameters. When a good parameter set is chosen we have at least one model demonstrating how the galaxy might have evolved to the present state. The main objective of this master thesis consisted in developing and implementing the software required for iteratively estimating the initial physical parameters required for simulating a galaxy merger process. In addition, the existing simulation software was adapted to a scientific workflow engine. Projection and image processing algorithms for model-image comparison were devised and implemented. Both the simulation and the comparison processes offered several opportunities for parallelization. For executing the developed processes in parallel the Sun Grid Engine was used. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Donnerstag, 30.11.2006 13:00 Uhr s.t. Vorträge:13:00 Uhr - Cerlane Leong: Grid Services for CFD Simulations (Master Thesis)With the advent of grid computing, computation intensive applications like CFD simulations can be computed on grids. Grid computing is chosen for this thesis as it enables the pooling of resources that are physically distributed, to meet the increasing need for computational resources while performing CFD simulations. In this presentation, the grid-based service approach employed in the thesis for CFD simulations on a computational grid is discussed. Two grid services are developed and deployed to investigate this service-oriented approach in the field of CFD simulations. The aim of is to identify the pros and cons of grid services so as to emphasise the advantages and avoid the disadvantages in future grid services deployment in field of CFD simulations and other applications. The result of this work and the possibility of future work will be discussed. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 22.11.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Matthias Becker: Entwicklung eines dynamischen Clustertool-Simulators sowie Entwicklung und Bewertung von Steuerungsregeln für die parallele Losbearbeitung für Clustertools (Master Thesis, AMD)Clustertools werden in der Halbleiterindustrie eingesetzt bei der Herstellung von integrierten Schaltungen auf Siliziumscheiben (Wafern). Ein Clustertool besteht aus mehreren Prozess-Kammern, in denen jeweils ein Prozess-Schritt an einem Wafer durchgeführt werden kann. Dabei kann ein Wafer mehrere Kammern nacheinander durchlaufen, und für einen Prozess-Schritt können mehrere identische Kammern vorhanden sein. Zwischen den Kammern werden die Wafer von Robotern transportiert. Der zu entwickelnde Simulator soll den Fluss der Wafer durch ein Clustertool nachvollziehen. Dabei sollen Steuerungsregeln für die parallele Bearbeitung von mehreren Losen (Satz von i. d. R. 25 Wafern) erarbeitet werden. Insbesondere ist dabei die Vermeidung von Verklemmungen (Deadlocks) zu berücksichtigen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 08.11.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Michael Maurer: Rekonstruktion hochauflösender Bilder (Diplomarbeit)Viele Applikationen benötigen hochaufgelöste Bilder. Allerdings führen eine unzureichende Infrastruktur, ein zu geringes Projektbudget oder mangelhafte Technik oft zu schlecht aufgelösten Bildern. An dieser Stelle kann die Technik der Bildrekonstruktion angewandt werden. Aus mehreren schlecht aufgelösten Bildern derselben Szene, die transliert aufgenommen wurden, wird ein hochaufgelöstes Bild rekonstruiert. Hierzu benötigt man ein Modell, dass den Fehler und zufälliges Rauschen mitberücksichtigt. Außerdem wird auf Basis von Töplitz-Matrizen und der konjugierten Gradientenmethode ein Operator entworfen, der in der Lage ist, die Bilder zu einem besseren Gesamtbild zusammenzufügen. In der Praxis kann man solche Bilder beispielsweise bei Satelliten wie im Galileoprojekt oder bei stark verrauschten Bildern der Medizindiagnostik - zum Beispiel für öntgenbilder - verwenden. Ziel der Diplomarbeit ist es einen Operator zu entwickeln, der einerseits sehr gut rekonstruieren kann, aber andererseits cache- und hardwareoptimiert ist. Dieser wird dann unter Verwendung des Bildverarbeitungstools HALCON der Firma MvTec - einer der Marktführer im Bereich Bildverarbeitung - auf industrielle Bilder angewandt und seine Leistungsfähigkeit hinsichtlich Aufösungsgüte und Performanz analysiert. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Donnerstag, 28.9.2006 10:00 Uhr s.t. Vorträge:10:00 Uhr - Biliana Stojkoska: Benchmarking a CG SolverOne way to satisfy the demands for faster computing performance is using parallel programming. The aim of my work was the benchmarking of a parallel and distributed application. More precisely, I measure the time consuming in a solver of systems of linear equations, used in the F3F simulation tool, which is using the Conjugate Gradient method. I analyze and compare the time that is spent when the program is executed on different number of processors and for different problem size. Tests were done on high performance cluster "Infinicluster". The results of these measurements are stored in a structure, which is suitable for further parsing, analysis and visualization. 10:30 Uhr - Jelena Djuric: Working with PETSc: Problemas and solutionsuring my stay at TU Muenchen, I worked with the package called Portable, Extensible Toolkit for Scientific Computation (PETSc), witch is widely used for various numerical computations on supercomputers. My task was to learn how to employ it for solving different systems of linear equations. The focus of my work was to import data delivered by the F3F simulation tool into PETSc data type representation. The presentation will contain some of my experiences gathered while working with PETSc. Both the problems and the evolution of their solutions will be addressed. The results obtained from different examples run on Infinicluster, using different number of processors, will be presented. Also some interesting PETSc features that I remarked during my work will be mentioned. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Donnerstag, 14.9.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Mustapha Sghir: Algorithmen zur Kantendetektion (Diplomarbeit)In der digitalen Bildverarbeitung werden die Originalbilddaten in Datenformate umgewandelt, die ein Rechner interpretieren kann. Hierzu werden sie als zwei- oder mehrdimensionale Matrizen gespeichert, die mit diskreten Funktionen manipuliert werden können. Die Verfahren, die auf diesen digitalisierten Bilddaten ausgeführt werden, haben zum Ziel, den Bildinhalt für den menschlichen Beobachter darzustellen. Wegen der Leistungsfähigkeit heutiger Rechner entstehen immer neue Einsatzgebiete für die digitale Bildverarbeitung, wie beispielsweise in der Industrie, Medizin, Umwelt, Medien, Mustererkennung und in der künstlichen Intelligenz. Künstliche Intelligenz wird für viele rechnerunterstützte Problemlösungen verwendet. Beispiele hierfür sind Robotik, Expertensysteme, automatisches Beweisen, Bildverstehen und Spiele. In diesem Bereich werden Systeme angestrebt, die im Rahmen wohlde nierter Modelle der Welt als Muster agieren und reagieren. Für die Bildsegmentierung, Bildrekonstruktion und Bildverbesserung spielt die Kantendetektion eine entscheidende Rolle. Sie wird als zentrales Thema der Bildverarbeitung behandelt, da damit die große Informationsmenge eines Bilds auf die wichtigsten Bestandteile reduziert werden kann. Aber bevor man Kanten extrahiert, sollte man in der Lage sein, alle verschiedenen Arten von Bildkanten zu unterscheiden. Sie können in der Realität bei Reflexionen, Variationen in der Oberflächenbeschaffenheit eines Objekts, Schattenlauf, flißende Objektbegrenzung oder in den Objektbegrenzungen, die als Grenze zwischen zwei homogenen Flächen im Bild sichtbar wird, auftreten. Werden solche Kantentypen als Diskontinuität beschrieben, benötigt man dazu einen Kantenoperator, der in der Lage ist, sie zu unterscheiden oder mehrere unterschiedliche Methoden, deren Hintereinanderausführung bestimmte Kantensorten extrahieren. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Dienstag, 12.9.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Ilya Saverchenko: Parameter Estimation for Simulating the Formation Process of Existing Galaxies (Master Thesis)Parameter estimation for simulating the formation process of existing galaxies is one of the problems faced at Max-Planck Institute for Astrophysics. The problem can be addressed in several distinct ways. The proposed solution is based on an iterative scheme. A workflow consisting out of three main blocks can be set up. The first part selects a set of simulation parameters out of a defined space. The parameters are used to run a numerical simulation of galaxy formation. Using the result of the simulation one is able to evaluate how good was the initial parameter set, improve it, and run the workflow again. After a number of runs the parameter set would describe with chosen accuracy an observed galaxy. It is also possible to run the algorithm in a parallel fashion. Communication between different instances of the workflow running in parallel is minimal, thus one can execute the algorithm in a GRID environment. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Dienstag, 18.7.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Andreas Haug: Sierpinski-Kurven zur speichereffizienten numerischen Simulation auf adaptiven Tetraedergittern (Diplomarbeit)Der Vortrag befasst sich mit der Erzeugung eines adaptiven Gitters mittels dreidimensionaler Sierpinskikurven. Er behandelt die Konstruktion der Kurve, wie das dadurch erzeugte Gitter aussieht und insbesondere die effiziente Speicherung der Variablen auf mehreren Stacks. Es werden die Regeln hergeleitet, die vorgeben wie die Variablen auf die Stacks verteilt werden. Abschließend behandelt der Vortrag die Probleme, die sich durch Adaptivität des Gitters ergeben. 11:30 Uhr - Stefanie Schraufstetter: Speichereffiziente Verfahren zum Lösen partieller Differentialgleichungen auf adaptiven Dreiecksgittern (Diplomarbeit)Gewöhnliche Verfahren zum Lösen partieller Differentialgleichungen erfordern in der Regel mit zunehmender Problemgröße einen hohen Speicheraufwand. Im Rahmen der Diplomarbeit wurde ein Lösungsverfahren entwickelt, das ohne das Speichern von Nachbarschaftsbeziehungen und Steifigkeitsmatrix auskommt und so nur äußerst wenig Speicher benötigt. Grundlage bildet ein rekursiv strukturiertes Dreiecksgitter, dessen Zellen in der durch die Sierpinski-Kurve gegebenen Ordnung bearbeitet werden. Als Speicherstruktur für die Knotenvariablen dient ein Stapelsystem, das einen effizienten Zugriff auf die Variablen ohne aufwändige Indizierung der Knoten ermöglicht. Die verwendeten iterativen Lösungsverfahren wurden in zellorientierter Form implementiert, so dass sie nur auf den Elementgleichungssystemen arbeiten. Neben dem cg-Verfahren wurden auf diese Weise auch ein additives Mehrgitterverfahren sowie ein cg-Verfahren mit Multilevel-Vorkonditionierung realisiert. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Dienstag, 11.7.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Markus Robitschko: Ranking Algorithmen für Internet-Suchmaschinen (Diplomarbeit)Mit der zunehmenden Flut an Information (Dokumenten) gewinnen Suchmaschinen eine immer grösser werdende Bedeutung. Das gilt besonders für das Internet. War es früher aussreichend, überhaupt Information zu finden, so ist es heute - bedingt durch die Menge - unumgänglich, diese nach Relevanz zu ordnen (Ranking). Mit gezielter Manipulation von Dokumenten wird versucht, das Ranking von Suchmaschinen zu unterlaufen. Für Ranking Algorithmen stellt eine Erkennung solcher Manipulationen eine große Herausforderung dar. Eine weitere Herausforderung für Internet-Suchmaschinen ist der unkontrollierbare Datensatz, bedingt durch den Aufbau des Internets. Zwar existieren Standards für Dokumente, diese müssen und werden aber nur bedingt eingehalten. In dieser Präsentation wird ein grober Überblick über Suchmaschinen, das Ranking und die Möglichkeiten der Manipulation gegeben, sowie die im Rahmen der Diplomarbeit erstellte Suchmaschine zur Auswertung verschiedener Ranking Verfahren vorgestellt. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Dienstag, 4.7.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Siew Hoon Leong: Grid Services for CFD Simulations (Master Thesis)Grid computing is an increasingly popular virtual computer architecture that enables distributed process execution by using multiple networked computers. As a starting point, an existing CFD simulation tool is used to investigate the benefits of grid computing in the field of CFD. Possible advantages include a service oriented architecture that allows the easy exchange of solver, the access to multiple supercomputers within the same program and makes available additional resources when solving large problems. The aim is to utilize the various benefits of grids to tackle CFD problems. Various grid services will be implemented to allow transparency to researchers or developers who wish to use our CFD components that are on the grid. This presentation serves to provide an overview of the objectives and plan of this thesis, its proposed implementation direction and to address the issues faced. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Dienstag, 6.6.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Florian Schimandl: Aufbereitung und Analyse von Daten zur Reisezeitschätzung im städtischen Netz (Diplomarbeitsvortrag)Gegenstand der Diplomarbeit war die Entwicklung eines Systems zur automatisierten Aufbereitung und Analyse von Daten zur Reisezeitschätzung im städtischen Straßennetz. Zu diesem Zweck wurde ein Tool entwickelt, das ein standardisiertes und fehlerresistentes Verfahren implementiert, das die Möglichkeit bietet, Reisezeitprofile für beliebige Strecken im städtischen Straßennetz aus den Rohdaten eines rechnergestützten Betriebsleitsystems (RBL) zu extrahieren und sinnvoll für die Weiterverarbeitung aufzubereiten. Im Vortrag wird die grundsätzliche Problemstellung erläutert, sowie auf einige wichtige Details eingegangen. Es werden Sachverhalte verdeutlicht und das zugrundeliegende Verfahren erklärt. Außerdem werden die beiden entwickelten Tools "Saturn" und "Titan" vorgestellt. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Dienstag, 30.5.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Axel Anonymous: Parallelisierung der Simulation eines magnetisch gekoppelten Vielteilchensystems (Diplomarbeitsvortrag)Ein Schlüsselprozess beim modernen digitalen Hochgeschwindigkeits-Drucken ist die triboelektrische Aufladung des Toners durch intensive Reibung an Carrierteilchen. Während des Aufladungsvorgangs erfolgt die Steuerung des Vielteilchensystems über externe magnetische Felder, die die permanentmagnetischen Eigenschaften der Carrierteilchen nutzen. Besonders die kurzreichweitigen magnetischen Kräfte, deren Einfluss von der Stellung der magnetischen Dipole jedes einzelnen Teilchens abhängt, führen zu sehr hohem Rechenaufwand. Im Rahmen der Diplomarbeit soll daher die vorhandene Simulation optimiert und parallelisiert werden. Der Vortrag befasst sich zunächst mit einer anschaulichen Einführung in den digitalen Hochgeschwindigkeitsdruck und präsentiert die vorgegebene Software mit den darin simuierten physikalischen Vorgängen. Zum Abschluss werden mögliche Ansätze zur Optimierung und Parallelisierung vorgestellt. |
Ort: t.b.a. MI-Gebäude Termin: Dienstag, 30.5.2006 15:30 Uhr s.t. Vorträge:15:30 Uhr - Ruben Sousa: Numerical Studies of Spontaneous Undulator Radiation (SPUR) (Master Thesis)X-Ray free-electron-lasers (XFEL) work based on the self amplified stimulated emission (SASE) principle. In SASE-XFEL there is no external seeding field that interacts with the relativistic electron beam thus all the initial interaction occurs only with the spontaneous radiation emitted by the electrons themselves. Besides, the electron beam only makes a single pass through the undulator; therefore saturation level must be reached within the undulator length. Hence a good understanding of the spontaneous emission is important in the design of an XFEL and fundamental for a table-top XFEL (TT-XFEL) given that the undulator length is much shorter. Theoretical calculations and current simulation codes show that the spontaneous emission dominates the interaction with the electron beam during the initial phase of the FEL process. However these simulation codes fail to give an accurate estimation of how strong the spontaneous radiation is and for how long it dominates. The current version of the SPUR code calculates the radiation spectrum of the spontaneous emission using an approximation of the electron beam trajectory. The goal of the present work is to improve the code by calculating realistic beam trajectories and including relevant beam parameters such as the energy spread and beam emittance. This allows producing more accurate spectra which give a better insight on the behaviour of spontaneous radiation on the initial states of the FEL interaction. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 8.2.2006 11:00 Uhr s.t. Vorträge:11:00 Uhr - Marko Milosevic: Hierarchical Pattern Recognition in VLSI (PhD thesis)In the process of custom chip design, each part of its architecture is shaped at the level of primitive electronic elements (transistors, resistors, capacitors...). Yet once defined (functional) structures are often repeated in different parts of the architecture, or reused in different architectures. This leads to usage of object oriented databases for modeling hierarchical structures that represent an electronic circuit. For different CAD tools used in EDA (Electronic design automation), which are build as the transactions of mentioned object oriented databases, that show highly hierarchical properties, it is required to perform a certain checks of the topology (ERC) in special contests. Therefore, tools that recognize those contexts and perform needed operations are developed. The tools are based on pattern matching (subgraph isomorphism) techniques, where the subgraph (pattern) is checked against the graph (entire circuit). Most of the existing tools work on flat representation of the circuit, where no encapsulations of certain parts of the circuit are present and, therefore, there is only one hiearchical level. Yet, making the tools that would work on hiearchical (folded) data would bring high benefits in speed and memory requirements. 11:30 Uhr - Florian Schimandl: Aufbereitung und Analyse von Daten zur Reisezeitschätzung im städtischen Netz (Diplomarbeit)Erläuterung der Themenstellung und kurzer Einblick in meine Herangehesweise an die Arbeit (Warum, wozu überhaupt eine DA zu diesem Thema?), Präsentation der bisherigen Ergebnisse (GPS- Koordinatentransformationen, Map-Matching, Java-Tool: "Saturn"), Ausblick. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Dienstag, 31.1.2006 15:30 Uhr s.t. Vorträge:15:30 Uhr - Christian Mayer: Cache-optimale Matrix-Operationen mit der Peano-Kurve (Diplomarbeit)Bekannt sind bei Matrizen eine zeilen- oder spaltenweise Abspeicherung der Einträge. Bei einer trivialen Implementierung der verschiedenen Matrix-Operationen (z.B. Matrix-Multiplikation) wird dadurch nur eine sehr schlechte Ausnutzung der Caches und damit eine schlechte Performance erreicht. Bekannte Codes wie ATLAS oder Intel MKL benutzen Matrix-Block- Operationen, die für jeden Prozessor optimal abgestimmt werden müssen (z.B. bezüglich der Block-Größe). Durch Abspeicherung der Matrix-Einträge in Reihenfolge der raumfüllenden Peano-Kurve lässt sich ein Code erzeugen, der jede Cache-Hierarchie optimal ausnützt - ohne prozessorspezifische Optimierungen. 15:50 Uhr - Imran Shafiq: Accurate Extraction of Material Interfaces from Implicit Level Set Functions in Two and Three Dimensions (Master Thesis)Chip fabrication simulation is a vital assessment and analysis methodology employed in the semiconductor industry. As semiconductors are fabricated on a nano-meter scale, the demand for accuracy in such simulations is very high. From a topological and graphical point of view, the chip fabrication processes namely etching and deposition are boundary propagation processes. Generally, the chip fabrication simulation involves three integrated steps: the growth velocity calculation, the boundary propagation and the chip geometry reconstruction. The growth velocity calculation is based on the solution of large sets of partial differential equations which governs the etching and the deposition processes. After the velocities are calculated, the chip boundary is updated or moved in the boundary propagation step. The most efficient technique for the boundary propagation used in the semiconductor simulations is the Level Set method developed by Sethian and Osher. The Level Set functions are an implicit representation of the updated chip boundary. This implicit representation has to be processed to extract the actual chip boundary known as the geometry reconstruction step. The most widely used algorithm to extract geometry from scalar volumetric data such as the implicit level set functions is the so-called Marching Cell algorithm developed by Lorenson and Cline. Infineon Technologies has internally developed a chip fabrication simulator known as the Topographic Simulator, TOPSI. TOPSI is based on the Level Set method and the Marching Cell algorithm. The results of the original marching cell algorithm combined with the front extraction scheme, used in TOPSI; show some major consistency and accuracy problems. The results of the TOPSI simulation are affected very badly due to the inefficient front extraction scheme, especially when the simulation involves more than one semiconductor material. The semiconductor fronts show loss of accuracy and the material assignment falls prey to ambiguity. The objective of this thesis is to study the level set method, analyze the current front extraction scheme used in TOPSI, pin-point the inconsistencies, and develop a new front extraction strategy for two and three dimensions, which is accurate, efficient and integrates seamlessly with the TOPSI architecture. 16:10 Uhr - Peter Jacobi: Automatische Musikerkennung (Diplomarbeit) |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 14.12.2005 11:00 Uhr s.t. Vortrag:11:00 Uhr - Ralf Kible: Entwicklung eines Cache- und SSE-optimierten Lattice-Boltzmann-Strömungssimulationsprogramms (Studienarbeit)Aktuelle Consumer-Prozessoren haben wegen ihres guten Preis-/Leistungsverhältnisses den Weg in moderne Hochleistungsrechner gefunden. Es liegt also nahe, sich im Bereich der Computersimulation mit den Besonderheiten dieser Prozessoren auseinanderzusetzen. Eine dieser Besonderheiten sind die SSE-Befehlssatzerweiterungen, die seit SSE2 Fließkommaberechnungen doppelter Genauigkeit unterstützen. Die Einsatzgebiete von SSE sind vielfältig. Beispielsweise bietet SSE Befehle, um arithmetische Operationen auf mehreren Datenworten gleichzeitig durchzuführen, und unterschiedliche Lade- und Speicherbefehle, um das Caching-Verhalten zu beeinflussen. Im Rahmen der Arbeit wurde zunächst ein Lattice-Boltzmann-Simulationsprogramm entwickelt und mit gängigen Methoden wie z.B. Loop-Blocking das Caching-Verhalten optimiert. Darauf aufbauend wurden unterschiedliche Möglichkeiten zum Einsatz von SSE gesucht und getestet. Der Vortrag soll zunächst einen allgemeinen Einblick in die Programmierung mit SSE durch intrinsische Funktionen geben, um danach die konkreten Anwendungen auf die Lattice-Boltzmann-Methode und deren Nutzen vorzustellen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 7.12.2005 11:00 Uhr s.t. Vortrag:11:00 Uhr - Christian Mayer: Cache-optimale Matrix-Operationen mit der Peano-Kurve (Diplomarbeit)Bekannt sind bei Matrizen eine zeilen- oder spaltenweise Abspeicherung der Einträge. Bei einer trivialen Implementierung der verschiedenen Matrix-Operationen (z.B. Matrix-Multiplikation) wird dadurch nur eine sehr schlechte Ausnutzung der Caches und damit eine schlechte Performance erreicht. Bekannte Codes wie ATLAS oder Intel MKL benutzen Matrix-Block- Operationen, die für jeden Prozessor optimal abgestimmt werden müssen (z.B. bezüglich der Block-Größe). Durch Abspeicherung der Matrix-Einträge in Reihenfolge der raumfüllenden Peano-Kurve lässt sich ein Code erzeugen, der jede Cache-Hierarchie optimal ausnützt - ohne prozessorspezifische Optimierungen. 11:30 Uhr - Christoph Niedermayr: Cache-effiziente Implementierung eines Poisson-Lösers auf Basis von Szierpinski-Kurve (SEP)Ich werde erläutern welche Arten von Gittern das Verfahren benutzt, wie mit Hilfe der Sierpinski-Kurve eine effiziente Verwaltung der Daten möglich wird und welche Datenstrukturen dafür benötigt werden. Weiterhin wird die codetechnische Umsetzung mittels verschränkt rekursiven Funktionen erklärt werden. Zum Ende möchte ich noch zeigen wie sich der Rechenaufwand auf die verschieden Programmteile verteilt und eine kleine Auswertung bezüglich Leistungsfähigkeit und Cache-Effizienz vornehmen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 23.11.2005 11:00 Uhr s.t. Vortrag:11:00 Uhr - Imran Shafiq: Accurate Extraction of Material Interfaces from Implicit Level Set Functions in Two and Three Dimensions (Master Thesis)
11:30 Uhr - Igor Jeremic: Web Services in C++ using Globus Toolkit 4In this presentation the creation of web services in C++ using Globus toolkit V4 will be described and demonstrated. A web service that receives instructions in XML format, binary or text files from client applications will be described. This web service uses the grid-ftp protocol and starts some parallel or sequential applications on service side. Creating WSDL schema for service and client will be discussed and how to use that schema to generate bindings and skeletons, too. Also ideas about how to write a service in C++ will be presented, because in this version of toolkit only C is supported. 11:45 - Ivan Ivanovski: Data Manipulation in Globus Toolkit 4The presentation shall contain information about the work conducted in the past 3 months. In the first days of the work on the project, Globus Toolkit was introduced as a software for working with grid, and the web services were introduced later. Transfer of data was completed successfully and GridFTP for transfering files was supposed to be implemented, but there were some instalation problems of the security mechanisms. OGSA-DAI was the next focus of work, including the deployment of data services and data resources. Finally, the CSCW framework was included in the work and some changes were made to the existing framework, so that connection to a database would be established (using OGSA-DAI) and data would be stored in. Test results reffering to the time performances of this data storage will also be included into the presentation. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Freitag, 16.9.2005 10:00 Uhr s.t. Vortrag:10:00 Uhr - Till Wagner: Randbehandlung höherer Ordnung für ein cache-optimales Finite-Element-Verfahren (Diplomarbeit)Um das volle Potential aktueller Hardware auszunutzen, ist eine möglichst gute Verwendung des Caches ein entscheidendes Kriterium. Dazu sind Finite-Element-Verfahren entwickelt worden, welche die modernen hierarchischen Speicherstrukturen optimal verwenden. Eine Schlüsseltechnik dieser FE-Algorithmen ist die Gebietstraversierung anhand der Peanokurve um die örtliche und zeitliche Datenlokalität zu gewährleisten, um Sprünge im Speicherzugriff zu vermeiden. Um diese Gebietstraversierung zu ermöglichen, ist eine Zerlegung des Rechengebiets durch ein kartesisches Gitter notwendig. Die damit einhergehende unzureichende Approximation komplexerer, insbesondere krummliniger, Gebiete führt zu einer reduzierten Konvergenzordnung und einer verschlechterten Mehrgitterkonvergenz. Ziel der Arbeit war die Beibehaltung der höheren Konvergenzordnung und der Mehrgitterkonvergenz, welche bereits durch bestehende cache-optimale Verfahren für Gebiete, die exakt durch kartesiche Gitter darstellbar sind, erreicht wird, ebenso für komplexere Gebiete bereitzustellen. Durch Korrektur der randnahen Knoten anhand einer physikalisch-geometrisch inspirierten Interpolationstechnik konnte die höhere Konvergenzordnung für sämtliche Gebiete sichergestellte werden, und die Mehrgitterkonvergenz signifikant verbessert werden. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 31.8.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Klaus Speer: Modeling of an Anti Radar Seeker Head with Radar Pulse Detailing (Master Thesis)Inhaltsübersicht:
|
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 24.8.2005 13:00 Uhr s.t. Vortrag:13:00 Uhr - Ivan Markovic: Development of an OGSA-DAI Grid Data Service in an Octree Based FrameworkThe applications that are suitable to be run on the grid are slowly becoming service-oriented. Grid services are a sub-class of web services which give access to the computing power that grid enables. We present an overview of the fundamental concepts that are necessary in building a grid service and some basic steps of the implementation. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Donnerstag, 18.8.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Marius Botis: A Parallel Computing Service for a Grid Framework |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 17.8.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Melanie Grieb: Synthetische Biologie -- Automatische Familienklassifikation von Proteinen (Diplomarbeitsvortrag)ANACIN: Automatic aNnotation And Classifikation of proteINs Experimental determination of sequence, structure and function dependencies of a protein remains expensive. Therefore, recognition of similar protein characteristics is used to transfer data from known to unknown proteins to gain insight about sequence, structure and function relationships of proteins. As the cost of protein synthesis constantly decreasing (currently 1.5$ per nucleotide, 0.1$ per nucleotide in the near future), the goal is to use this knowledge in the future to completely predict the function of a specific protein sequence for a non-experimental de novo design of proteins . Family classification plays the most important role in solving that problem. Where sequence similarity generally infers common structure, similarities in fold but not sequence are less likely to reveal common function. In this thesis, a software for the automatic annotation and classification of protein families was created to automate the analysis of protein family databases, which takes at least one month if done by hand. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 20.7.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Christian Miedl: Test coverage analysis of an engine model (Masterthesis)Diese Masterthesis wurde in Zusammenarbeit mir der Firma TESIS DYNAware GmbH in München durchgeführt. Das Softwareprodukt enDYNA dieser Firma stellt ein Motormodell zur Echtzeitsimulation dar. Dieses Motormodell wird zur Entwicklung und zum Test von sicherheitskritischer Steuergerätesoftware eingesetzt. Daher sind die Anforderungen an die Softwarequalität entsprechend hoch. Diese Arbeit leistet einen Beitrag um die derzeitige Softwarequalität beurteilen und in Zukunft weiter erhöhen zu können. Insbesondere werden im Hinblick auf das Testen des Motormodells enDYNA Verbesserungen vorgeschlagen. Dazu wird der Testprozess mittels Model Coverage und Code Coverage Tools untersucht und aufgezeigt wie die Testabdeckung weiter erhöht werden kann. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 6.7.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Tobias Gradl: MPI kombiniert mit OpenMP: die optimale Parallelisierungs-Strategie für SMP-Cluster? (Diplomarbeitsvortrag)Message-passing (mit Hilfe des MPI-Standards) wurde zur Parallelisierung von Programmen für Distributed-memory-Computer entwickelt und ist inzwischen die am weitesten verbreitete Strategie. Für die früher häufig verwendeten Shared-memory-Computer war die Benutzung von Threads (und damit des OpenMP-Standards) das Mittel der Wahl. Bei SMP-Clustern, einer seit mehreren Jahren zunehmend an Bedeutung gewinnenden Synthese aus Distributed- und Shared-memory-Architektur, bietet sich intuitiv die Kombination von MPI und OpenMP an. In der Literatur zahlreich dokumentierte Fehlversuche lassen jedoch an dieser auf den ersten Blick sinnvollen Strategie Zweifel aufkommen. Woran liegt es, daß ein hybrides MPI-OpenMP-Programm auf einer dafür prädestinierten Architektur keine bessere Performance liefert als ein reines MPI-Programm? Gibt es bestimmte Eigenschaften von Hardware und Betriebssystem, die die Performance hybrider Programme positiv oder negativ beeinflussen? Sind manche Algorithmen besser für eine hybride Implementierung geeignet als andere? Diesen Fragen soll sowohl theoretisch als auch mit Hilfe eines Testprogramms auf den Grund gegangen werden. 11:30 Uhr - Peter Oberhofer: Eine personalisierte Webanwendung zur Unterstützung des Bewerbungsverfahrens bei Master-Studiengängen (Diplomarbeitsvortrag)Ausgangspunkt der Arbeit ist der Bewerbungsprozess für den CSE-Studiengang, der vom Lehrstuhl für Informatik V organisiert wird. Jeder Interessierte kann ein Bewerbungsformular herunterladen, ausfüllen und zusammen mit den geforderten Unterlagen an den Lehrstuhl schicken. Die Anlagen müssen in einer akzeptierten Sprache vorliegen, was im Falle einer Übersetzung zu nicht unerheblichen Kosten führt. Die Verarbeitung der Bewerbungsformulare ist für den Lehrstuhl aufwändig. Die Daten müssen von Hand aus dem Formular in die Verwaltungsanwendung übertragen werden. Dies wird durch den Umstand erschwert, dass die Bewerbungen meistens handschriftlich ausgefüllt sind. Sehr viele Bewerber stammen aus anderen Kulturkreisen, was das korrekte Entziffern der persönlichen Daten zusätzlich erschwert. Im Rahmen der Diplomarbeit wurde eine Webanwendung basierend auf Java Servlets und der relationalen Datenbank DB2 erstellt, die den Bewerbungsprozess dahingehend abändert, dass ein Interessent seine Daten in ein Online-Konto einträgt und dafür eine Vorabbewertung seiner Chancen von Seiten des Lehrstuhls erhält. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 22.6.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Akhtar Muhammad Zaheer: Objective Function for Optimization of Deep Drawing Process in a Meta Computing Environment (CSE Master Thesis Presentation)In auto industry, Deep drawing processes are dominantly used for the production of car body. The governing physical phenomenon behind this process is quite complex in its nature. So due to the high degree of complexity, it is a big challenge to accomplish decfect free parts with good quality. In order to have a better insight of the phenomenon, numerical methods (different FE simulation tools) are used to analyze the process before the production of parts. Since a decade, FE simulation tools are used to analyze the Deep Drawing Processes and to improve the geometry. The latter has to be done in an iterative manner by changing parameters and involving simulation by hand. This costs a lot of time and money which is not acceptable. The idea behind this topic is to build up a Meta Computing Environment (MCE), which automatically controls the process in a general workflow for sensitivity analysis and optimization, and hence utilizes maximum computing resources. The most important task is to develop a program for calcuation of an appropriate Objective Function for optimization problem. In addition to that a GUI should be built up, that enables users to describe their optimization problem in an easy way. Basically a meta library will be used that transforms the outputs of the different FE solvers into a standerdized meta format. This data set will be used as an input for Objectve Function calculation and then results will be optimized via specific optimization algorithms. In order to check the validity of above process workflow, an example workflow process will be created to optimize a set fo design variables with a set of constraints and Objective Function of the Deep Drawing Process. Response Surface Method will be used for this optimization problem. 11:30 Uhr - Michael Bader: Peano Curves and Cache Oblivious Multiplication of Matrices (Vortrag anlässlich des 7th International Symposium on Iterative Methods in Scientific Computing in Toronto)Der folgende Absatz entspricht dem englischsprachigen Original-Abstract, der anlässlich des 7th International Symposium on Iterative Methods in Scientific Computing in Toronto eingereicht worden ist. Der Vortrag selbst jedoch wird in Deutsch erfolgen: One of the keys to tap the full performance potential of current hardware is the optimal utilisation of cache memory. Cache oblivious algorithms are designed to inherently benefit from any underlying hierarchy of caches, but do not need to know about the exact structure of the cache. In this talk, we present a cache oblivious algorithm for matrix multiplication. The algorithm uses a block recursive structure, and an element ordering that is based on Peano curves. In the resulting code, index jumps can be totally avoided, which leads to an asymptotically optimal spatial and temporal locality of the data access. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 8.6.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Rainer Fischer: Multigrid-Methoden für anisotrope BTTB Systeme (Prämierter Vortrag anlässlich des 7th International Symposium on Iterative Methods in Scientific Computing in Toronto)Mehrgittermethoden sind hocheffiziente Lösungsmethoden für große dünnbesetzte Multilevel-Toeplitzsysteme, die positiv definit und schlecht konditioniert sind. In diesem Vortrag wird ein Mehrgitteransatz präsentiert, der auf anisotrope 2-Level Toeplitzmatrizen (BTTB) spezialisiert ist. Hierzu wird zunächst eine Methode für Systeme mit anisotropem Verhalten entlang der Koordinatenachsen vorgestellt, die sich als passende Kombination verschiedener Vergröberungstechniken darstellen lässt. Dabei kommt ein auf erzeugenden Funktionen und deren Niveaulinien basierender Formalismus zum Einsatz. Dieser ermöglicht nicht nur die Formulierung von Konvergenzbeweisen, sondern auch eine Übertragung der Resultate auf Anisotropien, die entlang anderer Richtungen auftreten. Durch die Einführung neuer Koordinaten in den zugehörigen Erzeugendenfunktionen können diese komplizierteren Systeme mit der gleichen Effizienz gelöst werden. Ein mögliches Anwendungsbeispiel für derartige BTTB-Systeme wird in der Entwicklung von Mehrgitter-Präkonditionierern und -Lösern für die 2D Helmholtz-Gleichung gesehen. 11:45 Uhr - Klaus Daubner: Geometrische Modellierung mittels Oktalbäumen und Visualisierung von Simulationsdaten aus der Strömungsmechanik (Studienarbeit an der Universität Stuttgart)Der Datenaustausch zwischen verschiedenen Anwendungen wie CAD-Systemen und Strömungssimulationen ist problematisch, da sich die jeweiligen Geometriemodelle grundlegend unterscheiden. Mit CAD-Systemen werden meist oberflächenorientierte Geometriemodelle erstellt, wohingegen für zellbasierte Strömungssimulationen volumenorientierte Geometriemodelle nötig sind. Die Geometriemodelle müssen daher ineinander überführt werden. Aufgabe dieser Arbeit war die Entwicklung eines Werkzeuges für die Umwandlung eines gegebenen triangulierten oberflächenorientierten Modells in ein volumenorientiertes Modell in Form eines Oktalbaumes. In diesem Vortrag werden zu Beginn kurz die verschiedenen Geometriemodelle vorgestellt. Insbesondere triangulierte Oberflächenmodelle, die als Eingabe für die Oktalbaumgenerierung verwendet werden, sowie die volumenorientierten Oktalbäume. Weiterhin wird die eigentliche Generierung des Oktalbaumes genauer vorgestellt, ebenso die Ergebnisse und die Leistung des Algorithmus. Abschließend wird noch auf die Visualisierung der erzeugten Oktalbäume sowie der Strömungsdaten eingegangen. |
Der Lehrstuhl für Informatik mit Schwerpunkt Wissenschaftliches Rechnen möchte Mitarbeiter, Studenten und Interessierte einladen zum
SC²S-KolloquiumOrt: 02.07.023 MI-GebäudeTermin: Mittwoch, 1.6.2005 11:00 Uhr s.t. Vorträge:11:00 Uhr - Bernhard Weitzhofer: Erstellung eines scharfen Bildes aus einer Fokusserie (Diplomarbeitsvortrag)Die Aufnahme einer gänzlich scharfen Fotografie ist nur unter bestimmten Bedingungen möglich, selbst dem besten Kamerasystem sind physikalische Grenzen gesetzt. Hier bietet es sich an, mehrere, zumindest teilweise scharfe Bilder aufzunehmen, und diese zu einem scharfen Bild zu kombinieren. Der Vortrag präsentiert
11:30 Uhr - Judith Hartmann: Cache-effiziente Datenstrukturen und Algorithmen für d-dimensionale Probleme (Prämierter Vortrag anlässlich des 7th International Symposium on Iterative Methods in Scientific Computing in Toronto)Moderne Algorithmen des wissenschaftlichen Rechnens müssen effizient mathematische Methoden mit Konzepten der Informatik kombinieren, um Eigenheiten heutiger Hardware-Architekturen optimal ausnutzen zu könnnen. Im Hochleistungsrechnen erweist sich immer öfter die Speicherzugriffsbandbreite als Flaschenhals und damit eine Beachtung derselben als wichtiger als reine CPU-Power - gerade bei der Behandlung hochdimensionaler Probleme. Diese Problematik kann zum Teil entschärft werden, indem man das Wissen um die hierarchische Speicherarchitektur eines Rechners in das Algorithmendesign einfließen lässt und auf alle Simulationsdaten streng lokal zugreift. Effiziente mathematische Multiskalenmethoden jedoch lassen gerade diese Lokalitätseigenschaft missen. In diesem Vortrag wird ein dimensionsgenerischer Ansatz vorgestellt, elliptische partielle Differentialgleichungen mittels der FEM auf Spacetree-Gittern unter Verwendung eines additiven Mehrgitterzyklus zu lösen. Hierbei wird die Peano-Kurve zur Traversion des Gitters eingeführt und ein System von Stacks entwickelt, über das die gesamte Datenverwaltung abgewickelt werden kann. Hierdurch erreicht man quasi-optimale Cache-Hit-Raten und kann den Verwaltungsaufwand für Baumstrukturen massiv reduzieren. |
[an error occurred while processing this directive] |
![]() |