Die Motivation Wissen formal zu repräsentieren besteht üblicherweise darin es für Maschinen verarbeitbar zu machen. Daher werden Wissensrepräsentationsformalismen sinnvollerweise so gewählt, daß sie gut automatisch verarbeitbar sind. Darunter leidet allerdings häufig die Verständlichkeit der Repräsentation für Menschen. Auf der anderen Seite sind es meistens Menschen, die Wissen formalisieren oder formalisiertes Wissen aktuell halten müssen. Diese Diskrepanz ist die zentrale Motivation der vorliegenden Doktorarbeit, Möglichkeiten zu untersuchen wie die Evaluierung der konzeptionellen Richtigkeit von Ontologien automatisch unterstützt werden kann. Wenn zum Beispiel ein logischer Satz zu einer Ontologie, einem formalen Wissensmodell über Konzepte und Beziehungen zwischen Konzepten, hinzugefügt wird, kann es passieren daß die Ontologie zwar logisch weiterhin widerspruchsfrei ist aber konzeptionell falsch. Als spezieller Formalismus werden im Rahmen dieser Doktorarbeit Beschreibungslogiken betrachtet. Zuerst wurde sowohl analytisch als auch anhand einer Benutzerstudie betrachtet, inwieweit die systematische Begutachtung von Inferenzen den Ontologieevaluierungsprozess unterstützen kann. Als weitere Forschungstätigkeit wurde die Verwendung von konkreten Daten zur Erstellung von Beispielen fur die Bedeutung von logischen Sätzen über Konzepte und Relationen, terminologische und Rollenaxiome, untersucht. Vor der vorliegenden Doktorarbeit wurden in der Literatur den Auswirkungen von terminologischen und Rollenaxiomen auf konkrete Daten kaum Bedeutung geschenkt. Es war also notwendig, zuerst eine formale Definition zu finden die dem Ziel entspricht, Wissen über Daten das neu hinzukommt oder verloren geht auszudrücken. Darauf aufbauend werden die Entscheidbarkeit des Problems gezeigt und ein Entscheidungsalgorithmus beschrieben. Beide Forschungsarbeiten führten zu einer Erweiterung des MoKi, eines wiki-basierten Ontologieeditors, um Funktionalitäten die Ontologieevaluierung unterstützen. MoKi ist somit, nach bestem Wissen der Autorin, zu diesem Zeitpunkt der einzige State-of-the-Art Ontologieeditor der konzeptionelle Ontologieevaluierung unterstützt.

In der dynamischen Welt der IT entwickelte sich das Kennzeichen der Adaptivität zu einem der wichtigsten. Um die Adaptivität eines Systems gewährleisten zu können, muss eine entsprechende Infrastruktur sichergestellt sein. Jede Komponente des Systems sollte die Adaptivität zu einem gewissen Grad unterstützen. Wie soll ein System entworfen werden welches einerseits so weit wie möglich abstrahiert ist und ein hohes Maß an Flexibilität bietet, andererseits jedoch die Genauigkeit der Recommendation nicht beeinflusst? Um dieses Problem lösen zu können, haben andere Systeme wie CUMULATE (Benutzermodel Komponente im KnowledgeTree System) so genannte intelligente Inferenz-Agenten vorgestellt. Diese Agenten waren jeweils für eine Eigenschaft des Benutzers zuständig (z.B. Motivation oder Wissen des Benutzers). Die vorliegende Arbeit hat ein ähnliches Konzept verfolgt. Anstatt auf die Eigenschaften des Nutzerprofils wird der Schwerpunkt auf die Umstände/Situationen in denen die Benutzer/Inenn arbeiten gesetzt. Eine Möglichkeit wäre die zu Hilfenahme mehrerer Typen von Inferenz-Agenten (Konfiguration der Benutzerprofil-Komponente), welche für verschiedene Situationen vorkonfiguriert sind. Unterschiedliche Situationen ergeben sich durch neue Systeme, neue Domänen, unterschiedliche Domänenzustände sowie neue Arbeits- und Verhaltensmuster. Sollte die aktuelle Konfiguration aus irgendeinem Grund nicht ausreichend sein, so sollte sie relativ einfach durch eine besser angepasste Konfiguration ausgetauscht werden können. Das Problem dabei ist allerdings, dass nicht bekannt ist, welche Konfiguration für die aktuelle Situation die passendste ist. Es muss demnach ein Überprüfungsmechanismus gefunden werden, welcher sich um diese Problematik kümmert. Dieser Mechanismus wird als Simulation Framework in dieser Masterarbeit vorgestellt. Den praktischen Teil dieser Masterarbeit stellt die Implementation des UPS Prototype 3 und des Simulation Framework dar, und darauf aufbauend die Simulationen von Benutzerverhaltenweisen um die UPS Komponente des APOSDLE-Systems kalibrieren zu können. Die Simulationen zeigen eindeutig, dass jene Algorithmen, welche den sogenannten Aging Faktor berücksichtigen, die besten Ergebnisse erzielen. Mit dieser Erkenntnis wurde die Anzahl der möglichen Konfigurationen im System von ursprünglich sechs auf letztendlich zwei reduziert.  

In der heutigen Zeit steigt die Menge an digitalen Daten tagtäglich. Durch das Internet ist ein Teil davon der breiten Masse jederzeit zugänglich. Dabei unterstützen Suchmaschinen den Benutzer aus der scheinbar unerschöpflichen Menge an Daten die gewünschten Informationen herauszufiltern. Ebenso wird es im Intranet eines großen Unternehmens zunehmend schwieriger die Unmengen an Daten adäquat zu organisieren und zu strukturieren, um die gesuchten Informationen schnell zu finden. Für den niederländischen Halbleiterhersteller namens NXP Semiconductors wurde in dieser Arbeit ein Wissensmanagementsystem entwickelt, um den Zugang zu den Spezifikationen des intern entwickelten JCOP-Betriebssystems zu optimieren. Dabei können Spezifikationen vom Benutzer verwaltet, gruppiert und durchsucht werden. Als Grundlage für die Volltextsuche wurde ein bewährtes Information-Retrieval-Verfahren namens Vektorraummodell verwendet. Bei der Indizierung der Spezifikationen wird der Text extrahiert, gefiltert und in einen Index eingebettet. Dadurch wird dem Benutzer ermöglicht den Volltext der Spezifikationen zu durchsuchen. Aufbauend auf die Volltextsuche der Spezifikationen wurde mittels eines maschinellen Lernverfahrens namens K-Nearest-Neighbour die vom Benutzer durchgeführte Gruppierung einzelner Spezifikationen mit den Ergebnissen der K-Nearest-Neighbour-Klassifikation verglichen. Nach mehreren Optimierungsschritten konnte der Recall der Klassifikation auf über 70% und die Accuracy auf über 90% verbessert werden.

Der enorme Zuwachs an Daten verschiedensten Typs und unterschiedlichster Herkunft f¨uhrte in den letzten Jahren zu riesigen, teils un¨ubersichtlichen und unstrukturierten Datenmengen. In Anbetracht dessen ist die geeignete Aufbereitung sowie die effiziente Handhabung großer Datenmengen von besonderer Relevanz. Computerunterst¨utzte Visualisierung bzw. speziell die Visualisierung von semantischen Graphstrukturen spielt dabei eine zentrale Rolle. Sowohl die derzeitige Situation als auch die Prognose der zuk¨unftigen Entwicklungen unterstreicht die Aktualit¨at und besondere Bedeutung dieses Themas. Die Masterarbeit beleuchtet zun¨achst den theoretischen Hintergrund ausgew¨ahlter Themenbereiche der Graph- und Information-Visualisation. Die anschließende Evaluierung bereits bestehender Tools, Packages und Frameworks soll Aufschluss ¨uber aktuell verf¨ugbare Softwarel¨osungen zur Visualisierung von Graphen bzw. semantischen Graphstrukturen geben. Im Rahmen des praktischen Teils der Arbeit erfolgt, unter Ber¨ucksichtigung der Ergebnisse der Evaluierung, die Implementierung eines Systems zur Visualisierung und dynamischen Aggregierung von RDF-Graphen.

Die zunehmende Vernetzung und Öffnung von Unternehmen nach extern bedingt, dass ein großer Teil erfolgsbestimmender Einflussfaktoren außerhalb des eigenen Wirkungsbereichs liegt. Deswegen ist es für erfolgreiches Management wichtiger denn je, Informationen zu den Sichtweisen und Motivationsfaktoren der zentralen, externen Stakeholder so zu erheben, dass sie mit den eigenen Sichtweisen zusammengeführt und weiterverarbeitet werden können. Die Informationen können auf verschiedene Weise eingeholt werden. Gerade das Web 2.0 bietet hier Chancen, unternehmensinterne, strukturierte Informationen mit weiterführenden anzureichern. Diese Anreicherung ist zentraler Betrachtungspunkt der Arbeit und leitet sich aus einem speziellen Anwendungsfall ab, in welchem Erfolgsfaktoren und deren Verbindungen in Unternehmen betrachtet werden. Es wird untersucht, wie durch Diskussion über gängige Web 2.0 Plattformen wie Blogs oder Wikis etc. vorhandene, strukturierte Informationen durch Dritte angereichert werden können. Als Lösungsansatz wird eine Plattform zur Diskussion strukturierter Informationen als Rich Internet Application konzipiert und entwickelt. Diese hat den Charakter einer Suchmaschine und im Gegensatz zu herkömmlichen Diskussionsplattformen, wie z.B. Blogs, erfolgt die Diskussion strukturiert mittels Bewertungen. Im Rahmen einer Pilotnutzung und Expertenbefragung wird diese evaluiert. Die vorliegenge Masterarbeit zeigt, dass mit Rich Internet Applications ein hohes Maß an Usability erreicht werden kann, um strukturierte Informationen in Form von Erfolgsfaktoren erfolgreich mit weiterführenden Informationen durch Dritte anzureichern. Der vorliegenden Masterarbeit liegt ein Auftrag der SUCCON Schachner & Partner KG an die TU Graz zugrunde. Einzelne der im Rahmen dieses Auftrages durchgeführten Konzeptions- und Entwicklungstätigkeiten wurden in Absprache mit der SUCCON zur Behandlung im Rahmen der vorliegenden Masterarbeit freigegeben.  

Die kontinuierliche Wissensdiagnose stellt eine zentrale Herausforderung in adaptiven Lernsystemen, vor allem im Arbeitskontext, dar. Implizite Wissensdiagnose ist eine Möglichkeit, arbeitsgebundenes Wissen auf indirektem Weg über das Benutzerverhalten zu erfassen. Die vorliegende Feldstudie konzentriert sich auf die Validierung einer impliziten Wissensdiagnose (Knowledge Indicating Events, KIE) durch das User Model des arbeits-integrierten adaptiven Lernsystems APOSDLE. Eine Gruppe von sechs Untersuchungs-personen testete in einem Kleinunternehmen das adaptive Lernsystem APOSDLE drei Monate lang in ihrer natürlichen Arbeitsumgebung. Um den Genauigkeitsgrad des User Models messen zu können, wurde das erfasste Wissen im User Model mit externen Kriterien (Selbst- und Fremdeinschätzung) verglichen. Dafür wurden zum Einen die erfassten Arbeitsbereiche und zum Anderen die erfassten Wissenslevels (Expertise, Advanced, Beginner) im User Model berücksichtigt. Die Ergebnisse zeigen einen mäßigen Zusammenhang zwischen den erfassten Arbeitsbereichen des Systems und der Selbst- und Fremdeinschätzung. Zwischen dem erfassten Wissenslevels des Systems und dem selbst- und fremdeingeschätzten Wissenslevels wurde ein eher geringer Zusammenhang beobachtet. Aus der Literatur geht hervor, dass gewöhnlich mäßige Zusammenhänge zwischen User Model und externen Kriterien gefunden wurden. Aufgrund dessen erscheint eine Einbeziehung der KIE vielversprechend für die Wissensdiagnose im arbeits-integrierten Lernsystem APOSDLE. Die zusätzliche ROC Kurven Analyse zeigt eine geringere bis mittlere Sensitivität des Systems. Durch qualitative Inhaltsanalysen von Interviews und einem User Diary wurden folgende Faktoren als beeinflussend für die Validität des User Models festgestellt: Systembenutzung, Exploratives Verhalten eines Benutzers und das KIE-Mapping sowie die KIE-Algorithmen des Systems.

Kooperative Verschlagwortungssyteme erlauben es Anwendern, unterschiedliche Arten von Web-Ressourcen (URLs, Fotos, Publikationen etc.) mittels eines frei wählbaren und offenen Vokabulars, sogenannten "Tags" zu annotieren. Während die Forschung zu Beginn primär auf die Analyse der Struktur und der Dynamik von kooperativen Verschlagwortungssystemen fokusiert war, kam es kürzlich zur Untersuchung von Motivationsstrukturen, die der Verschlagwortung zu Grunde liegen. Die vorliegende Masterarbeit zielt auf ein tieferes Verständnis hinsichtlich der Verschlagwortungscharakteristiken von zwei grundverschiedenen Typen von Motivation ab - Kategorisierung versus Beschreibung. Sogenannte "Kategorisierer" verwenden Tags primär zum Aufbau und zur Pflege einer hilfreichen Navigationsstruktur ihrer Ressourcen. Dazu etablieren sie ein persönliches Vokabular an Tags, das dazu neigt, sich schnell zu stabilisieren und eine gleichmäßige Verwendungshäufigkeit der Tags aufweist. "Beschreiber" haben das vordergründige Ziel, Ressourcen äußerst detailliert zu annotieren, um die Suche möglichst gut zu unterstützen. Da sie ihre Tags ad-hoc und beschreibend einsetzen, wächst ihr Tag-Vokabular typischerweise viel stärker und weist zudem eine ungleichmäßige Verteilung auf. Basierend auf 10 Verschlagwortungsdatensätzen, die von 6 unterschiedlichen kooperativen Verschlagwortungssystemen (BibSonomy, CiteULike, Delicious, Flickr, Diigo und Movielens) akquiriert wurden, werden innerhalb dieser Masterarbeit die Verschlagwortungspraktiken von Kategorisierern und Beschreibern systematisch verglichen. Zu diesem Zweck wurde eine pragmatische Analyse durchgeführt, die auf ausgewählten statistischen Metriken basiert, welche unterschiedliche Intuitionen der Verschlagwortungscharakteristiken von Kartegorisierern und Beschreibern widerspiegeln. Die Masterarbeit beinhaltet überdies noch empirische Ergebnisse einer qualitativen Benutzerstudie. Im Zuge einer binären Klassifikationsaufgabe zur Abschätzung, ob Benutzer eher Kategorisierer oder Beschreiber darstellen, wurde untersucht, welche statistischen Metriken dabei am ehesten der menschlichen Beurteilung entsprechen. Die zentralen Ergebnisse dieser Masterarbeit beziehen sich folglich auf eine Reihe ausgewählter Verschlagwortungscharakteristiken, welche vergleichend für Kategorisierer und Beschreiber analysiert wurden. Die Ergebnisse zeigen, dass es mittels einfachen jedoch robusten statistischen Maßen möglich ist, die Unterschiede in der Verschlagwortungspragmatik von Benutzern automatisch zu identifizieren.  

Das 21. Jahrhundert ist durch Energie- und Ressourcenverschwendung gekennzeichnet. Die Auswirkungen dieses Verhaltens können in der ganzen Welt wahrgenommen werden. Der Wandel der Gesellschaft hin zur nachhaltigen Nutzung der zur Verfügung stehenden Ressourcen kann als Anstoß für diese Arbeit gesehen werden. Diese Masterarbeit beschäftigt sich mit der Erstellung eines webbasierten Ansatzes zur Überwachung und Visualisierung von Anlagedaten. Die zu überwachenden Informationen kommen aus dem Bereich der Energietechnik. Einleitend werden die Rahmenbedingungen dieser Arbeit definiert. Des Weiteren werden die funktionalen und nichtfunktionalen Anforderungen erläutert. Aufbauend darauf werden softwareentwicklungstechnische Entscheidungen getroffen, welche bei der Implementierung der RIA-Applikation erforderlich waren. Die Applikation ist Teil eines Gesamtproduktes, welches als verteiltes System realisiert ist. Der agile Softwareentwicklungsprozess Scrum wird als Prozess eingesetzt. Technologisch wurde die RIA- Applikation mit Silverlight realisiert. Der praktische Teil dieser Arbeit veranschaulicht die Realisierung der Visualisierung der Anlagedaten im zeitlichen, domain- und geospezifischen Kontext. Zu Beginn des praktischen Abschnittes wird ein Überblick über die RIA-Applikation gewährt, darauf aufbauend veranschaulichen Code-Ausschnitte zum besseren Verständnis die verschiedenen Visualisierungen. Abschluss dieses Teils bildet die Erklärung des Zusammenspiels der einzelnen Module der RIA-Applikation. Das Resümee über die eingesetzten Technologien und Praktiken bildet den Gesamtabschluss dieser Masterarbeit.  

Aufgrund der wachsenden Anzahl von Informationen, die ständig zu verarbeiten sind, werden aussagekräftige Visualisierungen von Informationen immer wichtiger. Gleichzeitig finden auch durch die ständig schneller werdende Computerhardware und die größer werdende Bandbreite bei Internetzugängen anspruchsvolle dreidimensionale Inhalte im Web immer stärkere Verbreitung. Die Darstellung von Informationsvisualisierungen im Web ist somit eine gute Möglichkeit, um viele Nutzer zu erreichen. Die Erweiterung von zweidimensionalen Visualisierungen um eine weitere Dimension kann hierbei zur besseren Strukturierung der Informationen genutzt werden. Die dreidimensionale Darstellung von Informationen im Web verlangt aber auch nach entsprechenden Technologien, die diese Aufgabe erfüllen können. Somit werden in dieser Arbeit derzeit verfügbare web-basierte 3D-Formate ermittelt, diese anhand von Kriterien verglichen und es wird auf Grund der hohen Verbreitung Flash für eine prototypische Umsetzung einer Informati-onsvisualisierung ausgewählt. Da es in Flash mehrere 3D-Engines gibt, werden diese einer genaueren Untersuchung unterzogen, um für die Informationsvisualisierung die passende auswählen zu können. Die Arbeit zeigt, dass es mit Flash möglich ist eine Informationsvisualisierung umzusetzen, auch wenn dabei aufgrund der geringen Hardwareunterstützung oft Kompromisse bei der Geschwindigkeit und der ungenauen Tiefenberechnung einzugehen sind.

Data Mining ist ein Schlagwort, in das heutzutage viele Erwartungen im Bereich der Informatik gesteckt werden. Das maschinen-unterstützte "Graben" und "Fördern" von komplexen Zusammenhängen in großen Datenbeständen ist auch von Interesse für eine Grazer Softwarefirma, die sich mit Datenanalyse im Bereich der Produktion beschäftigt. Diese Arbeit bearbeitet ein erstes Szenario dem sich die Firma widmen möchte: das Erkennen von Mustern in der Zustandshistorie einer produzierenden Maschine. Außer der Sequenz der Zustände und deren Dauer steht nur wenig Information zur Verfügung, die verwendet werden kann. Die Frage ist daher, ob zwischen den einzelnen Maschinenzuständen signifikante Korrelationen bestehen. Die sequentielle Natur der Daten bedingt zwei unterschiedliche Zugänge der Bearbeitung: zum einen bieten sich klassische Methoden der Klassifikation, zum anderen Methoden des so genannten Sequence- beziehungsweise des Episode-Mining an. Diese Arbeit präsentiert zunächst verschiedene mögliche Ansätze aus beiden Gebieten, um danach eine Methode aufzugreifen und Ergebnisse erster Versuche zu liefern. Diese Versuchen sollen zeigen, dass ein Auffinden von Mustern möglich ist.