In der dynamischen Welt der IT entwickelte sich das Kennzeichen der Adaptivität zu einem der wichtigsten. Um die Adaptivität eines Systems gewährleisten zu können, muss eine entsprechende Infrastruktur sichergestellt sein. Jede Komponente des Systems sollte die Adaptivität zu einem gewissen Grad unterstützen. Wie soll ein System entworfen werden welches einerseits so weit wie möglich abstrahiert ist und ein hohes Maß an Flexibilität bietet, andererseits jedoch die Genauigkeit der Recommendation nicht beeinflusst? Um dieses Problem lösen zu können, haben andere Systeme wie CUMULATE (Benutzermodel Komponente im KnowledgeTree System) so genannte intelligente Inferenz-Agenten vorgestellt. Diese Agenten waren jeweils für eine Eigenschaft des Benutzers zuständig (z.B. Motivation oder Wissen des Benutzers). Die vorliegende Arbeit hat ein ähnliches Konzept verfolgt. Anstatt auf die Eigenschaften des Nutzerprofils wird der Schwerpunkt auf die Umstände/Situationen in denen die Benutzer/Inenn arbeiten gesetzt. Eine Möglichkeit wäre die zu Hilfenahme mehrerer Typen von Inferenz-Agenten (Konfiguration der Benutzerprofil-Komponente), welche für verschiedene Situationen vorkonfiguriert sind. Unterschiedliche Situationen ergeben sich durch neue Systeme, neue Domänen, unterschiedliche Domänenzustände sowie neue Arbeits- und Verhaltensmuster. Sollte die aktuelle Konfiguration aus irgendeinem Grund nicht ausreichend sein, so sollte sie relativ einfach durch eine besser angepasste Konfiguration ausgetauscht werden können. Das Problem dabei ist allerdings, dass nicht bekannt ist, welche Konfiguration für die aktuelle Situation die passendste ist. Es muss demnach ein Überprüfungsmechanismus gefunden werden, welcher sich um diese Problematik kümmert. Dieser Mechanismus wird als Simulation Framework in dieser Masterarbeit vorgestellt. Den praktischen Teil dieser Masterarbeit stellt die Implementation des UPS Prototype 3 und des Simulation Framework dar, und darauf aufbauend die Simulationen von Benutzerverhaltenweisen um die UPS Komponente des APOSDLE-Systems kalibrieren zu können. Die Simulationen zeigen eindeutig, dass jene Algorithmen, welche den sogenannten Aging Faktor berücksichtigen, die besten Ergebnisse erzielen. Mit dieser Erkenntnis wurde die Anzahl der möglichen Konfigurationen im System von ursprünglich sechs auf letztendlich zwei reduziert.  

In der heutigen Zeit steigt die Menge an digitalen Daten tagtäglich. Durch das Internet ist ein Teil davon der breiten Masse jederzeit zugänglich. Dabei unterstützen Suchmaschinen den Benutzer aus der scheinbar unerschöpflichen Menge an Daten die gewünschten Informationen herauszufiltern. Ebenso wird es im Intranet eines großen Unternehmens zunehmend schwieriger die Unmengen an Daten adäquat zu organisieren und zu strukturieren, um die gesuchten Informationen schnell zu finden. Für den niederländischen Halbleiterhersteller namens NXP Semiconductors wurde in dieser Arbeit ein Wissensmanagementsystem entwickelt, um den Zugang zu den Spezifikationen des intern entwickelten JCOP-Betriebssystems zu optimieren. Dabei können Spezifikationen vom Benutzer verwaltet, gruppiert und durchsucht werden. Als Grundlage für die Volltextsuche wurde ein bewährtes Information-Retrieval-Verfahren namens Vektorraummodell verwendet. Bei der Indizierung der Spezifikationen wird der Text extrahiert, gefiltert und in einen Index eingebettet. Dadurch wird dem Benutzer ermöglicht den Volltext der Spezifikationen zu durchsuchen. Aufbauend auf die Volltextsuche der Spezifikationen wurde mittels eines maschinellen Lernverfahrens namens K-Nearest-Neighbour die vom Benutzer durchgeführte Gruppierung einzelner Spezifikationen mit den Ergebnissen der K-Nearest-Neighbour-Klassifikation verglichen. Nach mehreren Optimierungsschritten konnte der Recall der Klassifikation auf über 70% und die Accuracy auf über 90% verbessert werden.

Der enorme Zuwachs an Daten verschiedensten Typs und unterschiedlichster Herkunft f¨uhrte in den letzten Jahren zu riesigen, teils un¨ubersichtlichen und unstrukturierten Datenmengen. In Anbetracht dessen ist die geeignete Aufbereitung sowie die effiziente Handhabung großer Datenmengen von besonderer Relevanz. Computerunterst¨utzte Visualisierung bzw. speziell die Visualisierung von semantischen Graphstrukturen spielt dabei eine zentrale Rolle. Sowohl die derzeitige Situation als auch die Prognose der zuk¨unftigen Entwicklungen unterstreicht die Aktualit¨at und besondere Bedeutung dieses Themas. Die Masterarbeit beleuchtet zun¨achst den theoretischen Hintergrund ausgew¨ahlter Themenbereiche der Graph- und Information-Visualisation. Die anschließende Evaluierung bereits bestehender Tools, Packages und Frameworks soll Aufschluss ¨uber aktuell verf¨ugbare Softwarel¨osungen zur Visualisierung von Graphen bzw. semantischen Graphstrukturen geben. Im Rahmen des praktischen Teils der Arbeit erfolgt, unter Ber¨ucksichtigung der Ergebnisse der Evaluierung, die Implementierung eines Systems zur Visualisierung und dynamischen Aggregierung von RDF-Graphen.

Die zunehmende Vernetzung und Öffnung von Unternehmen nach extern bedingt, dass ein großer Teil erfolgsbestimmender Einflussfaktoren außerhalb des eigenen Wirkungsbereichs liegt. Deswegen ist es für erfolgreiches Management wichtiger denn je, Informationen zu den Sichtweisen und Motivationsfaktoren der zentralen, externen Stakeholder so zu erheben, dass sie mit den eigenen Sichtweisen zusammengeführt und weiterverarbeitet werden können. Die Informationen können auf verschiedene Weise eingeholt werden. Gerade das Web 2.0 bietet hier Chancen, unternehmensinterne, strukturierte Informationen mit weiterführenden anzureichern. Diese Anreicherung ist zentraler Betrachtungspunkt der Arbeit und leitet sich aus einem speziellen Anwendungsfall ab, in welchem Erfolgsfaktoren und deren Verbindungen in Unternehmen betrachtet werden. Es wird untersucht, wie durch Diskussion über gängige Web 2.0 Plattformen wie Blogs oder Wikis etc. vorhandene, strukturierte Informationen durch Dritte angereichert werden können. Als Lösungsansatz wird eine Plattform zur Diskussion strukturierter Informationen als Rich Internet Application konzipiert und entwickelt. Diese hat den Charakter einer Suchmaschine und im Gegensatz zu herkömmlichen Diskussionsplattformen, wie z.B. Blogs, erfolgt die Diskussion strukturiert mittels Bewertungen. Im Rahmen einer Pilotnutzung und Expertenbefragung wird diese evaluiert. Die vorliegenge Masterarbeit zeigt, dass mit Rich Internet Applications ein hohes Maß an Usability erreicht werden kann, um strukturierte Informationen in Form von Erfolgsfaktoren erfolgreich mit weiterführenden Informationen durch Dritte anzureichern. Der vorliegenden Masterarbeit liegt ein Auftrag der SUCCON Schachner & Partner KG an die TU Graz zugrunde. Einzelne der im Rahmen dieses Auftrages durchgeführten Konzeptions- und Entwicklungstätigkeiten wurden in Absprache mit der SUCCON zur Behandlung im Rahmen der vorliegenden Masterarbeit freigegeben.  

Kooperative Verschlagwortungssyteme erlauben es Anwendern, unterschiedliche Arten von Web-Ressourcen (URLs, Fotos, Publikationen etc.) mittels eines frei wählbaren und offenen Vokabulars, sogenannten "Tags" zu annotieren. Während die Forschung zu Beginn primär auf die Analyse der Struktur und der Dynamik von kooperativen Verschlagwortungssystemen fokusiert war, kam es kürzlich zur Untersuchung von Motivationsstrukturen, die der Verschlagwortung zu Grunde liegen. Die vorliegende Masterarbeit zielt auf ein tieferes Verständnis hinsichtlich der Verschlagwortungscharakteristiken von zwei grundverschiedenen Typen von Motivation ab - Kategorisierung versus Beschreibung. Sogenannte "Kategorisierer" verwenden Tags primär zum Aufbau und zur Pflege einer hilfreichen Navigationsstruktur ihrer Ressourcen. Dazu etablieren sie ein persönliches Vokabular an Tags, das dazu neigt, sich schnell zu stabilisieren und eine gleichmäßige Verwendungshäufigkeit der Tags aufweist. "Beschreiber" haben das vordergründige Ziel, Ressourcen äußerst detailliert zu annotieren, um die Suche möglichst gut zu unterstützen. Da sie ihre Tags ad-hoc und beschreibend einsetzen, wächst ihr Tag-Vokabular typischerweise viel stärker und weist zudem eine ungleichmäßige Verteilung auf. Basierend auf 10 Verschlagwortungsdatensätzen, die von 6 unterschiedlichen kooperativen Verschlagwortungssystemen (BibSonomy, CiteULike, Delicious, Flickr, Diigo und Movielens) akquiriert wurden, werden innerhalb dieser Masterarbeit die Verschlagwortungspraktiken von Kategorisierern und Beschreibern systematisch verglichen. Zu diesem Zweck wurde eine pragmatische Analyse durchgeführt, die auf ausgewählten statistischen Metriken basiert, welche unterschiedliche Intuitionen der Verschlagwortungscharakteristiken von Kartegorisierern und Beschreibern widerspiegeln. Die Masterarbeit beinhaltet überdies noch empirische Ergebnisse einer qualitativen Benutzerstudie. Im Zuge einer binären Klassifikationsaufgabe zur Abschätzung, ob Benutzer eher Kategorisierer oder Beschreiber darstellen, wurde untersucht, welche statistischen Metriken dabei am ehesten der menschlichen Beurteilung entsprechen. Die zentralen Ergebnisse dieser Masterarbeit beziehen sich folglich auf eine Reihe ausgewählter Verschlagwortungscharakteristiken, welche vergleichend für Kategorisierer und Beschreiber analysiert wurden. Die Ergebnisse zeigen, dass es mittels einfachen jedoch robusten statistischen Maßen möglich ist, die Unterschiede in der Verschlagwortungspragmatik von Benutzern automatisch zu identifizieren.  

Das 21. Jahrhundert ist durch Energie- und Ressourcenverschwendung gekennzeichnet. Die Auswirkungen dieses Verhaltens können in der ganzen Welt wahrgenommen werden. Der Wandel der Gesellschaft hin zur nachhaltigen Nutzung der zur Verfügung stehenden Ressourcen kann als Anstoß für diese Arbeit gesehen werden. Diese Masterarbeit beschäftigt sich mit der Erstellung eines webbasierten Ansatzes zur Überwachung und Visualisierung von Anlagedaten. Die zu überwachenden Informationen kommen aus dem Bereich der Energietechnik. Einleitend werden die Rahmenbedingungen dieser Arbeit definiert. Des Weiteren werden die funktionalen und nichtfunktionalen Anforderungen erläutert. Aufbauend darauf werden softwareentwicklungstechnische Entscheidungen getroffen, welche bei der Implementierung der RIA-Applikation erforderlich waren. Die Applikation ist Teil eines Gesamtproduktes, welches als verteiltes System realisiert ist. Der agile Softwareentwicklungsprozess Scrum wird als Prozess eingesetzt. Technologisch wurde die RIA- Applikation mit Silverlight realisiert. Der praktische Teil dieser Arbeit veranschaulicht die Realisierung der Visualisierung der Anlagedaten im zeitlichen, domain- und geospezifischen Kontext. Zu Beginn des praktischen Abschnittes wird ein Überblick über die RIA-Applikation gewährt, darauf aufbauend veranschaulichen Code-Ausschnitte zum besseren Verständnis die verschiedenen Visualisierungen. Abschluss dieses Teils bildet die Erklärung des Zusammenspiels der einzelnen Module der RIA-Applikation. Das Resümee über die eingesetzten Technologien und Praktiken bildet den Gesamtabschluss dieser Masterarbeit.  

Aufgrund der wachsenden Anzahl von Informationen, die ständig zu verarbeiten sind, werden aussagekräftige Visualisierungen von Informationen immer wichtiger. Gleichzeitig finden auch durch die ständig schneller werdende Computerhardware und die größer werdende Bandbreite bei Internetzugängen anspruchsvolle dreidimensionale Inhalte im Web immer stärkere Verbreitung. Die Darstellung von Informationsvisualisierungen im Web ist somit eine gute Möglichkeit, um viele Nutzer zu erreichen. Die Erweiterung von zweidimensionalen Visualisierungen um eine weitere Dimension kann hierbei zur besseren Strukturierung der Informationen genutzt werden. Die dreidimensionale Darstellung von Informationen im Web verlangt aber auch nach entsprechenden Technologien, die diese Aufgabe erfüllen können. Somit werden in dieser Arbeit derzeit verfügbare web-basierte 3D-Formate ermittelt, diese anhand von Kriterien verglichen und es wird auf Grund der hohen Verbreitung Flash für eine prototypische Umsetzung einer Informati-onsvisualisierung ausgewählt. Da es in Flash mehrere 3D-Engines gibt, werden diese einer genaueren Untersuchung unterzogen, um für die Informationsvisualisierung die passende auswählen zu können. Die Arbeit zeigt, dass es mit Flash möglich ist eine Informationsvisualisierung umzusetzen, auch wenn dabei aufgrund der geringen Hardwareunterstützung oft Kompromisse bei der Geschwindigkeit und der ungenauen Tiefenberechnung einzugehen sind.

Data Mining ist ein Schlagwort, in das heutzutage viele Erwartungen im Bereich der Informatik gesteckt werden. Das maschinen-unterstützte "Graben" und "Fördern" von komplexen Zusammenhängen in großen Datenbeständen ist auch von Interesse für eine Grazer Softwarefirma, die sich mit Datenanalyse im Bereich der Produktion beschäftigt. Diese Arbeit bearbeitet ein erstes Szenario dem sich die Firma widmen möchte: das Erkennen von Mustern in der Zustandshistorie einer produzierenden Maschine. Außer der Sequenz der Zustände und deren Dauer steht nur wenig Information zur Verfügung, die verwendet werden kann. Die Frage ist daher, ob zwischen den einzelnen Maschinenzuständen signifikante Korrelationen bestehen. Die sequentielle Natur der Daten bedingt zwei unterschiedliche Zugänge der Bearbeitung: zum einen bieten sich klassische Methoden der Klassifikation, zum anderen Methoden des so genannten Sequence- beziehungsweise des Episode-Mining an. Diese Arbeit präsentiert zunächst verschiedene mögliche Ansätze aus beiden Gebieten, um danach eine Methode aufzugreifen und Ergebnisse erster Versuche zu liefern. Diese Versuchen sollen zeigen, dass ein Auffinden von Mustern möglich ist.