Tag Archives: Cloud Computing

informatik-bilderleiste-02

Elastische Clouds mit ENTICE

ENTICE, ein neues Horizon-2020-Projekt am Institut für Informatik, verspricht eine dramatische Verbesserung von Virtualisierungstechnologien für Clouds. Ein neuartiges Virtual-Machine-Repository soll Performance, Kosten sowie Speicherplatzbedarf optimieren und damit höchsten Quality-of-Service-Ansprüchen genügen.

iStock_000043461996_XXXLargepolygonal-cloud-computing

Vor kurzem startete das 2,7-Millionen-Euro Projekt ENTICE, koordiniert von Univ.-Prof. Dr. Thomas Fahringer und von assoz. Prof. Dr. Radu Prodan. Beide Forscher gehören der Forschungsgruppe Distributed and Parallel Systems (DPS) am Institut für Informatik an, Thomas Fahringer leitet diese Forschungsgruppe. Die Forscherinnen und Forscher dieses internationalen Projektes haben es sich zum Ziel gesetzt, ein neuartiges Virtual-Machine-(VM)-Repository zu entwickeln. ENTICE setzt bei den gegenwärtigen Herausforderungen für Cloud-Infrastrukturen in der VM-Image-Technologie an.

Mehr Usability in der Cloud

Der Lösungsansatz des Forschungsprojektes beruht auf drei Säulen: Vereinfachung, Automatisierung und Elastizität. Zeitintensive und aufwändige Implementierung von VM-Images stellt gegenwärtig eine Barriere zur effizienten Nutzung und Ausführung von Anwendungen auf Clouds dar. Mittels einer Semantikbeschreibung von Anwendungen soll das Erstellen von VM-Images wesentlich vereinfacht werden. Um auf unterschiedliche Belastungssituationen schneller reagieren zu können, werden VM-Images automatisch verteilt und zerlegt. Durch diese schnelle Verfügbarkeit von VM-Images und deren Instanzen werden Anwendungen elastisch und skalieren automatisch. Ein Beispiel dafür ist die schnelle Reaktion einer Anwendung auf Spitzen von Benutzerströmen, um ein hohes Maß an Performance zu gewährleisten. Zudem ermöglicht ENTICE, bestehende VM-Images automatisch in dynamische Cloud-Umgebungen zu integrieren, wobei gleich für mehrere Ziele optimiert werden kann, wie z.B. Laufzeit, Energiebedarf oder Ressourceneffizienz.

Virtualisierungstechnologien leisten einen wesentlichen Beitrag zur Green-IT und zum Klimaschutz, da nicht nur Kosten, sondern auch Energie gespart und Rechenzentren effizienter genutzt werden.

ENTICE – ein Projekt im Rahmen von Horizon 2020

Im EU-Projekt ENTICE kooperieren Partner aus Ungarn, Slowenien, Großbritannien, Spanien und Österreich unter der Führung der DPS-Gruppe an der Universität Innsbruck. Mit den Unternehmen Wellness Telecom SL, Flexiant Ltd. und Deimos Castilla La Mancha SL werden Anwendungsfälle in den Segmenten Energiemanagement, Multi-Cloud-Ökosystemen und Erdbeobachtungsdaten erforscht. Horizon 2020 ist das weltweit größte, transnationale Programm für Forschung und Innovation mit einem Budget von knapp 80 Milliarden Euro für die Zeit von 2014 bis 2020. Die Finanzierungs- und Förderformen reichen von der Grundlagenforschung bis zur innovativen Produktentwicklung.

Distributed and Parallel Systems (DPS)

Unter der Leitung von Univ.-Prof. Dr. Thomas Fahringer werden Programmentwicklungssysteme, Compiler, Laufzeitsysteme sowie Software-Werkzeuge (z.B. Performance-Tools, Debugger) für moderne Parallelrechnersysteme, Hochleistungsrechner und Cloud-Infrastrukturen erforscht und entwickelt. Dabei können Programme für mehrere Ziele, z.B. Laufzeit, Energie, Ressourcenbedarf sowie Kosten, optimiert werden. Das Ziel ist, Benutzer, Anwendungsentwickler und Wissenschaftler beim Lösen von komplexen rechen- und datenintensiven Problemen in Industrie, Wirtschaft und Forschung zu unterstützen.

Links:

www.entice-project.eu
http://www.dps.uibk.ac.at/
https://www.ffg.at/Europa/H2020

(Gabriele Strasser)

ifi

Sicheres Cloud Computing ist kein Wolkenkuckucksheim

Integration von digitalem Fachwissen und Automatisierung von Risiko-Analysen kann Testverfahren für Software deutlich verbessern und Cloud Computing sicherer machen. Das zeigen neueste Ergebnisse eines vom FWF geförderten Projekts zur Qualitätssicherung sicherheitskritischer Systeme der Uni Innsbruck, die vor kurzem veröffentlicht wurden.Cloud

Software-EntwicklerInnen erleben oftmals böse Überraschungen: Selbst nach langer und erfolgreicher Anwendung von Cloud-Programmen tun sich plötzlich unerwartete Schwachstellen auf. Tatsächlich sind gerade Cloud-Programme anfällig dafür. Nicht weil sie schlecht geschrieben wurden, sondern weil sie viele laufend aktualisierte Schnittstellen besitzen. Diese machen Funktionalitäten erforderlich, die weit über den eigentlichen Programmablauf hinausgehen und von dritten Systemen abhängen. Sogenannte nicht-funktionale Sicherheitstests können diese Aspekte zwar testen, doch die konventionellen Methoden der Qualitätssicherung scheitern oft an der Komplexität der Anforderungen. Jetzt haben WissenschafterInnen der Universität Innsbruck Grundlagen vorgestellt, die nicht-funktionale Tests deutlich verbessern können.

Am besten testen

Die wesentlichen Erfolgskriterien dieser vom Team um Prof. Ruth Breu, Leiterin des Instituts für Informatik, entwickelten Grundlagen sind dabei die Integration von Fachwissen sowie eine Automatisierung der Prozesse zur Risikoanalyse. Die Wichtigkeit für die Integration formalisierten Expertenwissens über Schwachstellen in Software führt die Expertin dabei eindrucksvoll aus: „Allein im Jahr 2012 wurden 9.762 bis dahin unbekannte Sicherheitslücken in der Open Source Vulnerability Database, einer weltweit zugänglichen Datenbank zur Verwaltung von Wissen um Sicherheitslücken in Software, registriert. Tatsächlich sind die Ursachen vieler dieser Sicherheitslücken aber seit Langem bekannt. Sie hätten zum Zeitpunkt der Softwareentwicklung also schon vermieden werden können. Optimierte nicht-funktionale Tests sollten daher auf solches existierendes Wissen zurückzugreifen. Genau das tut unser Verfahren.“

Dazu formalisiert das Team um Prof. Breu, Dr. Michael Felderer und Philipp Zech solches Wissen und macht es damit für nachfolgende automatische Risikoanalysen verfügbar. Diese Analysen resultieren in Risikoprofilen der zu testenden Systeme, die zum Erstellen ausführbarer Sicherheitstest verwendet werden. Dabei kommen moderne Programmiersprachen wie Scala und ASP sowie modellbasierte Verfahren zum Einsatz. Zu diesem automatisierten Prozess der Risikoanalyse meint Prof. Breu: „Das Problem bei bisherigen nicht-funktionalen Sicherheitstests ist die schier unendliche Anzahl an Möglichkeiten für Fehler. Bisher versuchte man, diese Situation durch menschliches Expertenwissen zu meistern, z. B. bei Penetrationstests. Die von uns gewählte Herangehensweise erlaubt nun aber ein strukturiertes und automatisiertes Testverfahren.“

Praxistest

Prof. Breu ergänzt: „Zunächst war unsere Arbeit ja eher theoretisch geleitet. Doch wir wollten auch die Praxistauglichkeit unserer Überlegungen demonstrieren. Daher haben wir Real-Life Tests durchgeführt, die Reaktionen auf häufige Problemsituationen wie SQL-Injection-Angriffe checken.“ Im Rahmen der jetzt publizierten Arbeit wurde dabei zunächst auf eigens geschriebene Programme zurückgegriffen. Doch bereits seit einiger Zeit werden vom Team um Prof. Breu auch öffentlich verfügbare Testsysteme verwendet. Mit beeindruckendem Erfolg: Bis zu 90 Prozent aller Schwachstellen können aktuell zuverlässig identifiziert werden.

Insgesamt stellen die Ergebnisse dieses Projekts des FWF einen signifikanten Fortschritt für die zukünftige Qualitätssicherung sicherheitskritischer Systeme dar – ein Ergebnis, das die Bedeutung grundlegender wissenschaftlicher Arbeiten für die reibungslose Funktion unseres Alltages einmal mehr unter Beweis stellt.

Originalpublikation: P. Zech, M. Felderer, B. Katt and R. Breu: Security Test Generation by Answer Set Programming. The Eighth International Conference on Software Security and Reliability (SERE 2014), IEEE, 2014

Links: