The monitoring of complex systems in real-world applications, such as IT operations management, manufacturing industry, and cyber security, fre- quently involves the use of multivariate time series data. Owing to the rapid development of sensing devices, cloud computing, and storage infrastruc- tures, much effort has been recently devoted to different tasks that involve temporal data, like classification, clustering and forecasting. In addition to these tasks, causal discovery, a sub-field of causality, departs from tradi- tional prediction and data mining techniques, and aims at detecting causal relations between many time series, which can be beneficial for explaining the data generation process. The utilization of statistical models that involve weaker assumptions on the underlying generating mechanism of the data constitutes an important goal itself, but also offers a framework to construct reliable and consistent causal structure learning algorithms. This thesis is principally divided into two parts: i) propose and evaluate a novel causal discovery algorithm in multivariate time series via regression splines; ii) utilizing causal knowledge to build prognostics and anomaly detection frameworks. The first part of the thesis encloses multiple contri- butions in the field of causal discovery from multivariate time series. Since recovering causal structures from pure observations is a very difficult task, the use of only a single family of methods can only narrowly solve the problem. In particular, some methods can only address linear interdepen- dencies without any non-stationarities with even a specific type of statistical distribution. To this end, a novel approach is proposed in this thesis that share merits from non-parametric regression, causal additive noise models, and stability selection. Extensive experiments in both synthetic data and in diverse real-world datasets (human activity recognition, neuroscience, non- line-of-sight detection) demonstrate the superiority of the proposed method over the existing state-of-the-art. Further, it is worth mentioning that a real dataset is generated from practical interventional experiments for detecting non-line-of-sight, which is used for indoor localization applications. After establishing the contributions in the field of causal discovery, we in- vestigate the characterization of complex engineered systems by extracting comprehensive and robust health indicators from multivariate time series. In Prognostics and Health Management, it is very important to construct these health-related indices that may reflect the exact degradation status, regardless of the operating conditions of the machinery, which in a later phase will be used for predicting the remaining useful life. Due to low avail- ability of data from healthy status, anticausal learning, namely predicting the cause from the effect, is applied in a semi-supervised manner, as it may provide high robustness to model’s uncertainty and to different operating conditions. Finally, in the second part of this thesis, we address the problem of detecting cyber attacks that may infiltrate in industrial control systems with major consequences. Within the framework of an accumulative thesis, all research questions are formulated, and accordingly are addressed in the corresponding research articles that are presented in the following chapters.

This doctoral thesis concerns the optimization of multi-stage manufacturing processes. In multi-stage manufacturing, the overall manufacturing process comprises several subprocesses, i.e. stages. Because real-world manufacturing processes are costly in terms of materials, labor hours, energy, and CO2 emissions, physics-based simulations can be used to represent individual manufacturing stages. One drawback of physics-based simulations is their computational complexity, therefore, the optimization approach studied in this thesis is based on machine learning surrogates of physics-based simulations. Researched optimization methods are based on Bayesian optimization (BO) with Gaussian process (GP) surrogates. Approaches proposed in this thesis concern the handling of epistemic surrogate model uncertainty and aleatoric manufacturing process uncertainty in BO. Optimization is considered towards a target, not minimization or maximization like in standard BO. Further, the interaction of process stages is considered in optimization, by optimizing on a multi-stage level, rather than individual optimization of single stages. Objectives do not rely solely on a final multi-stage output, but also consider interim stages to ensure lowest out-of-tolerance w.r.t. the overall manufacturing process. The methods researched in this thesis, propose fulfilling approaches for robust optimization of manufacturing processes. Use cases handled focus on hot metal forging production for aerospace.

The analysis of users’ behaviours when working with user interfaces is a complex task. It requires various sensing technologies and complex modelling of input/response relationships. A huge amount of data is collected and analysed today but there are multiple crucial factors that play an unknown role in improving human decision processes. The development of new user interfaces and the usage of suitable techniques to recognise interaction patterns, is crucial for creating adaptive systems. Our work is focused on fault tolerance of Human Machine Interfaces and we develop systems that accept physical user measurements as additional inputs. This can be used to create assistive and adaptive user interfaces and as a way to improve recommendations.

Informelles Lernen ist der Schlüssel zur Lösung unklar definierter Probleme im englischen Gesundheitswesen, wie etwa der Umsetzung offizieller Empfehlungen in der Praxis. Allerdings hindert der stressige Arbeitsalltag die interdisziplinäre Praxisgemeinschaft ihre Erfahrungen aufzuarbeiten und gemeinsam den besten Lösungsweg auszuhandeln. Die Entwicklung unterstützender Tools bedarf eines Verständnisses der kognitiven Prozesse von Sense und Meaning Making im Erfahrungslernen, welche bisher aber nur in formellen Lernkontexten oder ohne Einbezug von Erfahrungen am Arbeitsplatz untersucht wurden. Zur Untersuchung dieser kognitiven Prozesse im Rahmen des informellen Lernens am Arbeitsplatz und gleichzeitiger Entwicklung technischer Unterstützung habe ich Design-based Research ausgewählt und eine systematische Methode zum kollaborativen Design von Tools ersonnen. Die Methode stellt die Praxis in den Mittelpunkt, leitet die Analyse der Appropriation von latenten Handlungsoptionen an und zielt auf reproduzierbare kreuzvalidierte Forschungseinsichten über Domäne, kognitive Theorien und Design ab. Durch die Einbindung der End-AnwenderInnen wird eine hohe Praxisrelevanz und Akzeptanz des designten Tools sichergestellt. Nach einer Ermittlung des praktischen, technischen und theoretischen Standes der Forschung wurde durch das kollaborative Design und die Analyse der Appropriation von Papier- bis hin zu Softwareprototypen in acht Iterationen das „Bits & Pieces“ Tool entwickelt. Parallel hat dieser Prozess zum Verständnis der Arbeits- und Lernpraxis im englischen Gesundheitswesen sowie einem kognitiven Modell von Sensemaking, Meaning Making und interdisziplinärer Teamarbeit im informellen Lernen geführt. Die Ergebnisse können in zukünftigen Forschungsvorhaben und in der Entwicklung von Lerntechnologien verwendet werden. Weiters hat die Studie zur Erhöhung der digitalen Kompetenz der teilnehmenden ExpertInnen geführt, was auch zur eigenmächtigen Verbesserung der Situation befähigt.

Semiconductor manufacturing is a highly complex and competitive branch of industry, comprising hundreds of process steps, which do not allow any deviations from the specification. Depending on the application area of the products, the production chain is subject to strict quality require- ments. While heading towards industry 4.0, automation of production workflows is required and hence, even more effort must be spent on controlling the processes accordingly. The need for data-driven indicators supporting human experts via monitoring the production process is inevitable, but lacks adequate solutions exploiting both, profound academic methodologies and domain-specific know-how. In many cases, process deviations cannot be detected automatically during the semiconductor frontend production. Hence, the wafer test stage at the end of frontend manufacturing plays a key role to determine whether preceding process steps were executed with the necessary precision. The analysis of these wafer test data is challenging, since process deviations can only be detected by investigating spatial dependencies (patterns) over the wafer. Such patterns become visible, if devices on the wafer violate specification limits of the product. In this work, we go one step further and investigate the automated detection of process patterns in data from analog wafer test parameters, i.e. the electrical measurements, instead of pass/fail classifications, which brings the benefit that deviations can be recognized before they result in yield loss - this aspect is a clear difference to state-of-the-art research, where merely specification violations are observed. For this purpose, an indicator for the level of concern associated with process patterns on the wafer, a so-called Health Factor for Process Patterns, is presented. The indicator combines machine learning techniques and expert knowledge. In order to develop such a Health Factor, the problem is divided into three major components, which are investigated separately: recognition of the pattern type, quantification of the intensity of a pattern and specification of the criticality associated with each pattern type. Since the first two components are intrinsically present in the wafer test data, machine learning systems are deployed for both, while criticality is specified by introducing expert and domain knowledge to the concept. The proposed decision support system is semi-automated and thus, unifies pattern recognition and expert knowledge in a promising way. The effectiveness of the proposed Health Factor is underlined by experiments conducted on simulated as well as real-world datasets. The evaluations show that the system is not only mathematically valid, but also practically applicable and fulfills the demands raised by a real- world production environment. Moreover, the indicator can be transferred to various product types or even related problem setups given a reliable training dataset.

The Web is a central part of modern everyday life. Many people access it on a daily basis for a variety of reasons such as to retrieve news, watch videos, engage in social networks, buy goods in online shops or simply to procrastinate. Yet, we are still uncertain about how humans navigate the Web and the potential of factors influencing this process. To shed light on this topic, this thesis deals with modeling aspects of human navigation on the Web and the effects arising due to manipulations of this process. Mainly, this work provides a solid theoretical framework which allows to examine the potential effects of two different strategies aiming to guide visitors of a website. The framework builds upon the random surfer model, which is shown to be a sufficiently accurate model of human navigation on the Web in the first part of this work. In a next step, this thesis examines to which extent various click biases influence the typical whereabouts of the random surfer. Based on this analysis, this work demonstrates that exploiting common human cognitive biases exhibits a high potential of manipulating the frequencies with which the random surfer visits certain webpages. However, besides taking advantage of these biases, there exist further possibilities to steer users who navigate a website. Specifically, simply inserting new links to a webpage opens up new routes for visitors to explore a website. To investigate which of the two guiding strategies bears the higher potential, this work applies both of them to webgraphs of several websites and provides a detailed comparison of the emerging effects. The results presented in this thesis lead to actionable insights for website administrators and further broaden our understanding of how humans navigate the Web. Additionally, the presented model builds the foundation for further research in this field.

Social tagging systems enable users to collaboratively assign freely chosen keywords (i.e., tags) to resources (e.g., Web links). In order to support users in finding descrip- tive tags, tag recommendation algorithms have been proposed. One issue of current state-of-the-art tag recommendation algorithms is that they are often designed in a purely data-driven way and thus, lack a thorough understanding of the cognitive processes that play a role when people assign tags to resources. A prominent exam- ple is the activation equation of the cognitive architecture ACT-R, which formalizes activation processes in human memory to determine if a specific memory unit (e.g., a word or tag) will be needed in a specific context. It is the aim of this thesis to investigate if a cognitive-inspired approach, which models activation processes in human memory, can improve tag recommendations. For this, the relation between activation processes in human memory and usage practices of tags is studied, which reveals that (i) past usage frequency, (ii) recency, and (iii) semantic context cues are important factors when people reuse tags. Based on this, a cognitive-inspired tag recommendation approach termed BLL AC +MP r is developed based on the activation equation of ACT-R. An extensive evaluation using six real-world folksonomy datasets shows that BLL AC +MP r outperforms current state-of-the-art tag recommendation algorithms with respect to various evaluation metrics. Finally, BLL AC +MP r is utilized for hashtag recommendations in Twitter to demonstrate its generalizability in related areas of tag-based recommender systems. The findings of this thesis demonstrate that activation processes in human memory can be utilized to improve not only social tag recommendations but also hashtag recommendations. This opens up a number of possible research strands for future work, such as the design of cognitive-inspired resource recommender systems

In recent years, various recommendation algorithms have been proposed to support learners in technology-enhanced learning environments. Such algorithms have proven to be quite effective in big-data learning settings (massive open online courses), yet successful applications in other informal and formal learning settings are rare. Common challenges include data sparsity, the lack of sufficiently flexible learner and domain models, and the difficulty of including pedagogical goals into recommendation strategies. Computational models of human cognition and learning are, in principle, well positioned to help meet these challenges, yet the effectiveness of cognitive models in educational recommender systems remains poorly understood to this date. This thesis contributes to this strand of research by investigating i) two cognitive learner models (CbKST and SUSTAIN) for resource recommendations that qualify for sparse user data by following theory-driven top down approaches, and ii) two tag recommendation strategies based on models of human cognition (BLL and MINERVA2) that support the creation of learning content meta-data. The results of four online and offline experiments in different learning contexts indicate that a recommendation approach based on the CbKST, a well-founded structural model of knowledge representation, can improve the users' perceived learning experience in formal learning settings. In informal settings, SUSTAIN, a human category learning model, is shown to succeed in representing dynamic, interest based learning interactions and to improve Collaborative Filtering for resource recommendations. The investigation of the two proposed tag recommender strategies underlined their ability to generate accurate suggestions (BLL) and in collaborative settings, their potential to promote the development of shared vocabulary (MINERVA2). This thesis shows that the application of computational models of human cognition holds promise for the design of recommender mechanisms and, at the same time, for gaining a deeper understanding of interaction dynamics in virtual learning systems.

xxx

xxx

Das Ziel einer Knowledge Discovery Applikationen ist es, aus großen Datenmengen maschinell Information und Muster zu extrahieren. Dabei folgen die meisten Applikationen den gleichen Aufbau. Daten werden eingelesen und transformiert und dadurch in eine Form gebracht, die es maschinellen Methoden erlaubt diese auszuwerten, typischerweise organisiert in sogenannten Instanzen und Features. Hier kommt oft das Vector Space Modell zum Einsatz, in dem die Daten in einer Matrix angeordnet werden. Diese Arbeit beschreibt einen Ansatz, der diese limitierte Daten-Repräsentation in einer Reihe von Aspekten erweitert, um die Information innerhalb eines Daten-Satzes zu extrahieren, im Speziellen jene Information, die in der Beziehungen zwischen Features latent vorhanden ist. Eine zwei-dimensionale Matrix kann in einen bi-partiten Graphen transformiert werden. Diese Daten-Struktur kann dann erweitert werden zu einer n-partiten Graph-Struktur, in der Knoten die Features innerhalb des Daten-Satzes repräsentieren. Zusätzliche Flexibilität kann gewonnen werden, indem die Knoten erweitert werden, um zusätzliche Information aufzunehmen, beispielsweise um externe Quellen anzubinden. Typischerweise geht eine allgemeinere, flexiblere Daten-Struktur mit höheren Laufzeit-Anforderungen einher, die oft einen praktischen Einsatz unmöglich macht. Der vorgestellte Ansatz erreicht dieses hohe Maß an Flexibilität, ohne allerdings ein Laufzeitverhalten aufzuweisen, das durch die theoretische Obergrenze der Laufzeitkomplexität vorgegeben ist. Um die praktischen Nutzen des Ansatzes zu demonstrieren, werden eine Reihe von Knowledge Discovery Applikationen vorgestellt. Diese Applikationen unterscheiden sich in dem Ausmaß an benötigter Flexibilität und Größe der verwendeten Datensätze. Um die allgemeine Nützlichkeit des Ansatzes zu unterstreichen, unterscheiden sich die vorgestellten Applikationen auch hinsichtlich ihrer Domäne. Diese sind Social Web, Information Retrieval und Natural Language Processing. Startend mit einem Recommender System, das eine einfache Daten-Repräsentation verwendet, steigert sich die Flexibilität bis zu einer komplexen Applikation aus dem Bereich der Sprach-Technologien. Hier werden statistische, semantische und strukturelle Informationen ausgewertet um mehrdeutige Wörter mittels eines unüberwachten Lernverfahrens aufzulösen.  

Klassifikation als Teilgebiet des überwachten Lernens ist ein wichtiges Gebiet des Data Minings und der Wissenserschließung. Normalerweise werden Klassifikatoren von ExpertInnen auf dem Gebiet des Maschinellen Lernens erstellt. Daraus folgt aber auch, dass die EndanwenderInnen im Allgemeinen nicht wissen, wie und warum der Klassifikator welche Entscheidungen trifft. Dieses fehlende Verständnis führt wiederum zu fehlendem Vertrauen in die Algorithmen. Außerdem ist es nicht möglich, wertvolles Domänenwissen in die Algorithmen zu integrieren, wenn man die AnwenderInnen aus dem Erstellungs-und Adaptionssprozess von Klassifikatoren ausschließt. In dieser Arbeit wird das Konzept von visuell unterst ̈tzter Klassifikation beschrieben. Es wird untersucht, ob eine st stärkere Integration von EndanwenderInnen in den Data Mining Prozess mit Hilfe von interaktiven Visualisierungen die Erstellung, das Verstehen, die Beurteilung und die Adaption von Klassifikatoren verbessern kann. Dafür werden mehrere Visualisierungen, die unabhängig vom spezifischen Klassifikator angewendet werden können, entworfen und implementiert. Weiterhin wird das Konzept des Visuellen Aktiven Lernens als Erweiterung des Aktiven Lernens im Data Mining eingeführt. In Experimenten werden diese Visualisierungen und das Visuelle Aktive Lernen hinsichtlich ihrer Verwendbarkeit für das Verstehen, die Beurteilung und die Adaption von Klassifikatoren evaluiert. In Experimenten konnte Folgendes gezeigt werden: Erstens, die entwickelten Visualisierungen können AnwenderInnen das Verstehen und Beurteilen von Klassifikationsmodellen ermöglichen. Zweitens, eine Visualisierung für einen speziellen Textklassifikator erlaubt AnwenderInnen Zugriff auf das interne Klassifikationsmodell. Drittens, eine Kombination aus Datenvisualisierungung und Klassifikatorvisualisierung ermöglicht DomänenexpertInnen, Klassifikatoren neu zu erstellen. Viertens, Visuelles Aktives Lernen liefert bessere Ergebnisse als klassisches Aktives Lernen in klassifikatorunabhängigen Fällen. Fünftens, eine Darstellung von automatisch extrahierten Schlüsselphrasen aus Texten ermöglicht ein schnelles und akkurates Annotieren von Textdokumenten und damit schnelles und akkurates Generieren von Trainingsdaten für die Textklassifikattion. Es kann geschlussfolgert werden, dass die Kombination aus Klassifikation und Visualisierung, d.h. visuell unterstützte Klassifikation, ein sinnvoller Ansatz ist. Von einer engeren Einbindung von DomänenexpertInnen in Klassifikationsanwendungen profitieren sowohl die Algorithmen, als auch die AnwenderInnen.  

Tagging bezeichnet das Annotieren von digitalen Ressourcen mit Schlagworten - so genannten "Tags" - mit dem Zweck Information besser zu organisieren, leichter wiederfindbar zu machen und deren gemeinsame Nutzung zu ermöglichen. Gegenwärtig existiert im Web eine große Anzahl von Applikationen die es Benutzern erlauben Informationen zu annotieren. Diese Systeme werden soziale Taggingsysteme genannt. Delicious beispielsweise erlaubt Benutzern ihre Lesezeichen mit Hilfe von Tags zu organisieren. In Flickr können Benutzer Bilder verschlagworten und YouTube ermöglicht die Vergabe von Tags um Videos innerhalb des Systems leichter auffindbar zu machen. Obwohl diese Systeme in den letzten Jahren zunehmend in den Fokus der Forschung gerückt sind, ist noch immer wenig über die Verwendung von Tags innerhalb dieser Plattformen und die damit einhergehenden Absichten der Benutzer bekannt. In weiterer Folge gibt es auch keine Studien darüber wie sich die Motivation von Benutzern und das daraus resultierende Verhalten in den Eigenschaften eines solchen Systems widerspiegeln. Die vorliegende Arbeit führt die Unterscheidung zweier neuer Arten von Taggingmotivation ein - Beschreibung und Kategorisierung. Bisher verfügbare Arbeiten, die sich mit der Analyse von Motivation in sozialen Taggingsystemen beschäftigen, basieren entweder auf der Einschätzung von Experten oder der Auswertung von Fragebögen. Bis heute existiert keine automatisierte Untersuchung von Taggingmotivation in diesen Systemen. Diese Dissertation stellt eine quantitative Analyse von Benutzermotivation vor, bei der statistische Eigenschaften des Tagvokabulars eines Benutzers untersucht werden. Für die Unterscheidung der zwei Arten von Taggingmotivation werden eine Reihe von Methoden eingeführt und sowohl qualitativ als auch quantitativ evaluiert. Als Resultat dieser Untersuchungen wird die Messung von Taggingmotivation mithilfe einfacher statistischer Größen ermöglicht. In zusätzlichen Experimenten wird analysiert, wie sich Daten der zwei Benutzergruppen unterschiedlich auf verschiedene Methoden der Wissenserschließung in Taggingsystemen auswirken. Besonderes Augenmerk wird hierbei auf die automatische Klassifikation sowie das Erfassen von Semantik gelegt. Die Resultate der Experimente zeigen, dass Kategorisierer besser für soziale Klassifikationszwecke geeignet sind, während Beschreiber besser zu der in Taggingsystemen auftretenden Semantik beitragen. Diese Ergebnisse zeigen einen Zusammenhang zwischen der Verwendung dieser Systeme und der in ihnen vorkommenden Semantik. Dies lässt darauf schließen, dass sich das Verhalten von Benutzern auf die Struktur dieser Systeme auswirkt - Information die besonders für Designer und Architekten dieser Plattformen von Bedeutung ist. Der wissenschaftliche Beitrag der vorliegenden Arbeit liegt in der Einführung und Unterscheidung zweier Arten von Taggingmotivation und der damit verbundenen Methoden um zwischen ihnen zu differenzieren. Mithilfe einer Auswertung auf mehreren Taggingdatensätzen wird gezeigt, dass Taggingmotivation sowohl innerhalb einzelner als auch zwischen unterschiedlichen Plattformen variiert. Des Weiteren wird der Einfluss der einzelnen Taggingmotivationsgruppen auf Verfahren der Wissenserschließung analysiert. Diese Arbeit ist relevant für Wissenschafter und Systemdesigner die an Benutzermotivation in sozialen Taggingsystemen und den daraus resultierenden Auswirkungen interessiert sind.  

 Das World Wide Web hat das Kommunikationsverhalten von Menschen sowie den Austausch von Informationen grundlegend verändert. Eine ständig wachsende Menge an digitalen Inhalten wird produziert und am Web verfügbar gemacht. Die Ideen des Semantic Webs und des Linking Open Data (LOD) Projekts tragen dazu bei, um den Zugriff auf Informationen am Web effizient zu ermöglichen. Durch derartige Ansätze wird es möglich, dass automatisierte Anwendungen Menschen bei deren Informationsbedürfnissen und täglichen Aufgaben unterstützen. Im Fokus dieser Dissertation stehen Herangehensweisen, um die Generierung und Nutzung von Linked Data zu optimieren. Die Forschungsarbeiten wurden in drei Themenbereiche gegliedert, welche besonders zur Optimierung von Linked Data beitragen: das Erstellen von vernetzbaren Daten, das Vernetzen von Linked Data und das Konsumieren von Linked Data. Zwei Hauptanwendungsfälle begleiten die Arbeit. Der erste Anwendungsfall "riese" befindet sich im Bereich öffentlicher Daten und stellt EuroStat Statistiken als Linked Data zur Verfügung. Der zweite Anwendungsfall "Link2WoD" adressiert die Medienindustrie und wurde entwickelt, um Online-Redakteure zu unterstützen. Der Demonstrator kann jedoch auch allgemein als Werkzeug für die Anreicherung von unstrukturierten Daten mit Linked Data eingesetzt werden. In der Arbeit werden Möglichkeiten für das Erstellen von vernetzbaren Daten aus strukturierten Daten, welche meist als relationale Daten vorliegen, gezeigt. Motiviert durch einen unserer Anwendungsfälle wird das Statistical Core Vocabulary (SCOVO) vorgestellt, welches der Repräsentation von statistischen Daten als Linked Data dient. Es erfolgt auch eine kurze Darstellung von Herangehensweisen, um vernetzbare Daten aus unstrukturierten Datenquellen zu extrahieren. In Bezug auf das Vernetzen von Linked Data werden sowohl benutzerbasierte wie auch automatische Methoden vorgestellt. Mit dem "User Contributed Interlinking" (UCI) haben wir eine auf Prinzipien von Wikis basierende Herangehensweise präsentiert, welche es Benutzern ermöglicht, einfach Links zu Datenbeständen hinzuzufügen. Darüber hinaus werden weitere Anwendungsbeispiele dieser Methodik gezeigt sowie automatisierte Ansätze, welche auf speziellen Spezifikationen und konzeptuellen Beziehungen basieren. Für das Konsumieren von Linked Data werden allgemeine Ansätze diskutiert, um die Daten sowohl für Menschen als auch für eine maschinelle Verarbeitung nutzbar zu machen. Dies erfolgt auch anhand einer Darstellung unserer Anwendungsfälle und Demonstratoren in den Anwendungsgebieten von öffentlichen Daten und in der Medienindustrie. Schließlich werden allgemeine Trends und Ideen für zukünftige Arbeiten präsentiert, um das volle Potenzial des Webs auszuschöpfen.  

Linked Data bietet einen Rahmen für die Erstellung, Veröffentlichung und Weitergabe von Informationen durch den Einsatz semantischer Technologien. Die Linking Open Data Initiative spielt durch die Veröffentlichung und Vernetzung verschiedenster Datenquellen im Internet eine wichtige Rolle bei der Realisierung des Semantic Web auf globaler Ebene. Der Zugriff auf eine riesige Menge an Linked Data eröffnet spannende Möglichkeiten für die nächste Generation Web-basierter Anwendungen. Es gibt jedoch noch immer viel zu wenige Anwendungsfälle, die das volle Potential von Linked Data nutzen. Dies liegt hauptsächlich an einigen offenen Fragestellungen im Zusammenhang mit der Verwertung und der Veröffentlichung von Linked Data sowie mit Applikationen, die auf Linked Data aufbauen, sowohl aus Sicht der Entwickler als auch der Anwender.Diese Dissertation soll die Kernthemen der Verwendung von Linked Data adressieren (z. B. Suchen und Abfragen, vereinfachte Benutzeroberflächen, Identity Management und Disambiguierung) sowie die Veröffentlichung von Linked Data erleichtern. Es werden konzeptionelle Modelle präsentiert, die dabei helfen können, das Linked Data Ökosystem besser zu verstehen. Darüber hinaus wird ein innovativer Ansatz vorgestellt, um durch den intelligenten Einsatz semantischer Technologien eine einfach zu bedienende Anwendung für normale Web-Nutzer zu entwickeln. Diese Anwendung kann durch den Einsatz von Linked Data relevante Informationen automatisch erfassen, verarbeiten und präsentieren und dabei  komplexe semantische Mechanismen und Abfragestrukturen verbergen. Insgesamt leistet diese Arbeit Beiträge in fünf Bereichen:Erstens identifiziert diese Arbeit die Notwendigkeit von konzeptionellen Konstrukten, um Linked Data  besser zu verstehen, und stellt die Linked Data Wertschöpfungskette vor. Ferner werden mögliche Problembereiche aufgezeigt; einer davon der Mangel an benutzerfreundlichen Schnittstellen für die Nutzung von Linked Data Ressourcen. Zweitens wird eine Technik zum Auffinden relevanter URIs aus unterschiedlichen Datensätzen von Linked Data entwickelt und implementiert, um tiefere Einblicke zu gewinnen und die Suchmechanismen für verknüpfte Daten zu vereinfachen. Drittens wird eine benutzerfreundliche Schnittstelle für die Erkundung von Linked Data namens CAF-SIAL (Concept Aggregation Framework for Structuring Information Aspects of Linked Open Data) vorgestellt. Dieses Framework ist in der Lage, Informationen in einer benutzerfreundlichen Umgebung zu strukturieren und darzustellen. Die Anwender müssen dabei nicht mehr lernen, wie Linked Data Konstrukte abgefragt und durchforstet werden. Die Ergebnisse der Evaluierung zeigen, dass dieses vollautomatische System die Nutzer bei der Exploration von Linked Data Ressourcen unterstützt.Viertens wurde ein HTML-Archiv eines digitalen Journals RDFiziert und automatisch mit externen Linked Data Ressourcen verknüpft. Anschließend wurde es der Linked Data Community öffentlich zur Verfügung gestellt. Fünftens wurde, um den Mehrwert der Linked Data Cloud zu demonstrieren, CAF-SIAL in zwei Anwendungsfällen eingesetzt: In einer digitalen Zeitschrift (Journal of Universal Computer Science) wurden Autoren mit ihren Profilen verknüpft, die von CAF-SIAL basierend auf Linked Data erstellt wurden, um die Nutzer der Zeitschrift dabei zu unterstützen, zusätzliche Informationen für die Zusammenarbeit zu finden. In einem zweiten Anwendungsfall wurden potentielle Experten von einem Expertise Mining System in einem hyperbolischen Baum visualisiert. Diese Experten wurden dann mit ihren Profilen in CAF-SIAL verknüpft, was sich als sehr nützlich für die Verwalter der Zeitschrift bei der Identifizierung und Zuordnung von Rezensenten in einer Peer-Review-Umgebung erwies.

Die Motivation Wissen formal zu repräsentieren besteht üblicherweise darin es für Maschinen verarbeitbar zu machen. Daher werden Wissensrepräsentationsformalismen sinnvollerweise so gewählt, daß sie gut automatisch verarbeitbar sind. Darunter leidet allerdings häufig die Verständlichkeit der Repräsentation für Menschen. Auf der anderen Seite sind es meistens Menschen, die Wissen formalisieren oder formalisiertes Wissen aktuell halten müssen. Diese Diskrepanz ist die zentrale Motivation der vorliegenden Doktorarbeit, Möglichkeiten zu untersuchen wie die Evaluierung der konzeptionellen Richtigkeit von Ontologien automatisch unterstützt werden kann. Wenn zum Beispiel ein logischer Satz zu einer Ontologie, einem formalen Wissensmodell über Konzepte und Beziehungen zwischen Konzepten, hinzugefügt wird, kann es passieren daß die Ontologie zwar logisch weiterhin widerspruchsfrei ist aber konzeptionell falsch. Als spezieller Formalismus werden im Rahmen dieser Doktorarbeit Beschreibungslogiken betrachtet. Zuerst wurde sowohl analytisch als auch anhand einer Benutzerstudie betrachtet, inwieweit die systematische Begutachtung von Inferenzen den Ontologieevaluierungsprozess unterstützen kann. Als weitere Forschungstätigkeit wurde die Verwendung von konkreten Daten zur Erstellung von Beispielen fur die Bedeutung von logischen Sätzen über Konzepte und Relationen, terminologische und Rollenaxiome, untersucht. Vor der vorliegenden Doktorarbeit wurden in der Literatur den Auswirkungen von terminologischen und Rollenaxiomen auf konkrete Daten kaum Bedeutung geschenkt. Es war also notwendig, zuerst eine formale Definition zu finden die dem Ziel entspricht, Wissen über Daten das neu hinzukommt oder verloren geht auszudrücken. Darauf aufbauend werden die Entscheidbarkeit des Problems gezeigt und ein Entscheidungsalgorithmus beschrieben. Beide Forschungsarbeiten führten zu einer Erweiterung des MoKi, eines wiki-basierten Ontologieeditors, um Funktionalitäten die Ontologieevaluierung unterstützen. MoKi ist somit, nach bestem Wissen der Autorin, zu diesem Zeitpunkt der einzige State-of-the-Art Ontologieeditor der konzeptionelle Ontologieevaluierung unterstützt.

Mit dem Begriff Web 2.0 wird eine Evolution bezeichnet, welche das Web seit einigen Jahren durchläuft. Kernelement dieses positiven Wandels ist die stetig zunehmende Bedeutung der durch Nutzer freiwillig und selbstorganisiert geteilten Inhalte. Am Web transformieren Nutzer von rein passiven Informationskonsumenten zu äußerst aktiven Informationsproduzenten. Dieser Effekt hat zur Herausbildung sozialer Web-Plattformen wie Wikipedia, Youtube, Facebook oder MySpace beigetragen, welche ihre Geschäftslogik auf nutzergenerierten Inhalten aufbauen. Angespornt durch den Erfolg solcher Web-2.0-Anwendungen in der Informationsteilung wollen auch Unternehmen das Web 2.0 für sich nutzbar machen. In ihrer Idealvorstellung von Corporate Web 2.0 schwebt ihnen vor, Strukturen und Muster des Web 2.0 in die Unternehmenslandschaft zu integrieren. Doch müssen Entscheider im Corporate Web 2.0 das entstehende Spannungsfeld zwischen Selbst- und Fremdorganisation, also Freiwilligkeit contra Hierarchie beherrschbar machen, um die Potentiale von Web 2.0 im Unternehmen vollständig auszuschöpfen. Diese Dissertation erforscht einen differenzierten Anwendungsbereich von Corporate Web 2.0, den intraorganisationalen Wissenstransfer über die beiden speziellen Web 2.0 Anwendungen Wiki und Weblog. Als sozio-technische Systeme weisen Wiki und Weblog besondere Charakteristika auf, welche das Verstehen und das Abschätzen ihrer Wirkung im betrieblichen Umfeld erheblich erschweren. Im Gegensatz dazu finden verantwortliche Wissensmanager wenig akademische qualitätsgesicherte Literatur vor, in welcher die beim Einsatz von Wiki und Weblog im Unternehmen beobachteten Phänomene systematisch empirisch untersucht werden. Als Antwort auf diese Knappheit verfolgt der Dissertant im Rahmen einer explorativen Mehrfachfallstudie die zentrale Forschungsfrage, ob und wie Unternehmen ihre Mitarbeiter dazu bringen, Wissen über Wiki und Weblog zu teilen. Die anwendungsnahe Dissertation legt den Untersuchungsfokus einerseits auf die für intraorganisationalen Wissenstransfer verantwortlichen Experten für Wiki und Weblog, berücksichtigt aber auch die Perspektive der Mitarbeiter als Nutzer dieser aus Sicht einer Wirtschaftsinformatik neuen computergestützten Informationssysteme. Durch die systematische Untersuchung des intraorganisationalen Wissenstransfers mit Wikis und Weblogs leistet diese Dissertation als explorative Forschungsarbeit einen Beitrag zu einem besseren Verständnis von Corporate Web 2.0 in Theorie und Praxis.  

Der Fokus dieser Arbeit liegt auf der Anwendung von Data Mining im realen Businesssumfeld. Wir stellen eine breite Palette von Data Mining Methoden und Techniken vor und veranschaulichen diese mit Beispielen aus eigenen praktischen Erfahrungen. Neben einer aktuellen Sichtweise auf das Thema Data Mining, betrachten wir diese Disziplin auch aus vergleichsweise unkonventionellen Perspektiven (z.B. Informationstheorie, Kolmogorow Komplexität, uvm.) und verwenden die neuesten und renommiertesten Quellen der Literatur. Diese Arbeit erkennt den prozessorientierten Charakter von Data Mining an und hebt die Notwendigkeit ihrer engen Integration in den strategisch wichtigen Entscheidungsfindungsprozessen einer Organisation hervor. Wir stellen die bedeutendsten Modelle der Data Mining Prozess-Aufgliederung vor und betrachten die wichtigsten Phasen des Prozesses im Detail. Ebenso berichten wir über unsere Erfahrungen im Aufbau einer Data Mining Gruppe in einem Handelsunternehmen. Zurzeit haben die Wissenschaftler leider kaum Zugang zu interessanten Quellen der realen Geschäftsdaten und arbeiten selten in enger Kooperation mit Spezialisten aus dem Anwendungsumfeld. Im Gegensatz dazu ist diese Dissertation von praktischen Anforderungen an Data Mining im heutigen Businessumfeld geprägt und resultiert aus der Arbeit mit realen Geschäftsdaten. Nach der Analyse der tatsächlichen Geschäftsanforderungen haben wir einen neuartigen universellen and skalierbaren Ansatz zur Modellierung des Kundenverhaltens entwickelt, welcher sowohl in der Versicherungsbranche, als auch im Handelsumfeld erfolgreich umgesetzt werden konnte. Wir schlagen auch einige Anwendungsmöglichkeiten der dargestellten Methode vor. Weiters zeigen wir am Beispiel eines tatsächlich umgesetzten Projekts, wie die Data Mining Techniken dazu verwendet werden können, die direkte Kundenkommunikation im Handelsumfeld zu optimieren, zu personalisieren und zu gestalten. Abschließend analysieren wir die Zukunftsaussichten dieser jungen Wissensdisziplin. Aus eigener Erfahrung mussten wir feststellen, dass Data Mining im Versicherungs- und Handelsumfeld in Österreich leider noch in den Kinderschuhen steckt und einen langen Weg vor sich hat. Wir berichten auch über die bedeutendsten Herausforderungen, die wir im Laufe unserer Data Mining Tätigkeit erlebt haben, und die wichtigsten Erkenntnissen, die wir aus unserer praktischen Arbeit in diesem Umfeld gelernt haben. 

xxx

Bisher wurde E-Learning vorwiegend als ein Kurs Management System angesehen, welches hauptsächlich auf die Bedürfnisse des Lehrbeauftragten fokussiert war. Wir betrachten E-Learning als den Wissenstransfer-Aspekt von Wissensmanagement mit vernetzen Systemen, welche Wissenserzeugung, -organisation und -archivierung fördern. Die revolutionären Entwicklungen des Webs führten zu Kulturformen wie Plagiaten und dem Copy-Paste-Syndrom. Unsere Untersuchungen zeigten, dass momentan verwendete und Techniken beschränkt und ineffektiv mit diesen Angelegenheiten umgehen. Wir erforschen die Einrichtung von Übungsbetreuungs-Mechanismen, wobei sich der gesamte Schwerpunkt auf die Unterstützung des Lernenden verschiebt. Wir schlagen ein E-Learning Ökosystem namens ICARE vor, welches Funktionalität zur Begleitung von studentischen Lernaktivitäten einbettet. Es wurde um die Fähigkeit zur Eingrenzung von Missbräuchen innerhalb des Kontexts von Lernaktivitäten verstärkt. Zum Einsatz kommt das Erstellen von genaueren Profilen von Lernenden, um Einsichten über Lernziele, Absichten und von Studenten ausgearbeitete Aufgaben während des Lernens ans Tageslicht zu befördern. Das vorgeschlagene E-Learning Ökosystem legte die Bedeutung der neuartigen kontextbewussten aufgabenspezifischen Unterstützung offen. Es wurde auch gezeigt, dass diese Fähigkeit nützlich in der Unterstützung von bedarfsorientiertem (just-in-time) Lernen durch Wissensarbeiter ist. Wir demonstrierten 3 Fallstudien, wobei diese Fähigkeit in der Unterstützung von Wissensarbeit appliziert wird. Eine Schlüsselkomponente des Ökosystems ist die Data Mining (DM) Technologie, welche für die Ähnlichkeitserkennung in der Eingabe zu Aufgaben und in der kontextabhängigen Profilerstellung von Lernenden und Wissensarbeitern benutzt wird. Unsere Untersuchungen deckten Gefahren ausgehend von der uneingeschränkten Datenverwertung von globalen DM Giganten, wie z.B. Suchmaschinen, auf. Sie illustrieren weiters das versteckte Potential von Google, welches sich als das führende globale Suchmaschinenunternehmen etabliert hat. Wir beschreiben ein Modell, das die Expansion des Einflusses von Web-Suchen durch das ordnungsgemäße Abdecken und Kontrollieren aller Aspekte unseres Lebens beschreibt. Institutionelle Ansätze werden dann gebraucht, die den Ansturm dieser DM Giganten einschränkt. Solche Bemühungen, zusammen mit technologischen Mitteln, werden in dieser Dissertation beschrieben, um unsere Abhängigkeit von globalem DM zu reduzieren und um das Setzen des Schwerpunkts auf Aufgabenbereiche wie E-Learning zu erleichtern.  

Im Laufe der letzten Jahre wurde das Semantic Web Realität. Obgleich einige praktische Fragen, wie beispielsweise Interoperabilität, schon teilweise behandelt wurden, sind die Themen Skalierbarkeit und Expressivität in Bezug auf die Ausnützung von Multimedia-Metadaten im Semantic Web bislang vernachlässigt worden. Bestehende Web (2.0) Anwendungen, die Millionen von multimedialen Inhalten handhaben, beginnen von Semantic Web Technologien zu profitieren. Die vorliegende Arbeit unterstützt Designentscheidungen beim Bau von multimedialen Semantic Web Applikationen. Dabei wurden, ausgehend von einer umfassenden Analyse praxisnaher Probleme (basierend auf Projekten bei denen der Verfasser dieser Arbeit beteiligt war) drei Bereiche identifiziert: Erstens, Performanz und Skalierbarkeitsfragen auf der Datenzugriffsebene, zweitens, effiziente und effektive Repräsentation von Beschreibungen multimedialer Inhalte, und schließlich der Gebrauch von Multimedia-Metadaten am Semantic Web. Gemein ist den oben genannten Forschungsbereichen die Kompromissfindung in Bezug auf Expressivität vs. Skalierbarkeit. In der Arbeit werden die Erkenntnisse bezüglich skalierbarer und dennoch ausdrucksstarker Semantic Web Applikationen im Multimediabereich im Rahmen einer Reihe realitätsnaher Aufgabenstellungen dargestellt. Schließlich werden zukünftige Entwicklungen (wie interlinking multimedia) diskutiert.

xxx

Ziel der Arbeit ist es zunächst zu untersuchen, wie Instrumente für den Wissensaustausch, speziell Diskussionsforen aber auch Blogs, in der Lehre effizient und effektiv eingesetzt werden können. Für diesen Zweck werden anhand eines Kreislaufes aus Design, Re-Design(s) und Evaluierung über einen Zeitraum von 2 Jahren hinweg drei unterschiedlich konzipierte Case Studies an der Technischen Universität Graz mit rund 450 Studierenden und insgesamt 12 Lehrenden/Studienassistenten durchgeführt. Die Lehrenden haben dabei die Aufgabe den Wissensaustausch mit den Instrumenten für den Wissensaustausch bestmöglich zu unterstützen – diese Rolle wird häufig auch als e-Moderator bezeichnet. Ausgehend von einer umfangreichen Literaturstudie sowie der Analyse gesetzter Aktionen von e-Moderatoren in den Diskussionsforen der ersten Case Study, werden effekt-äquivalente Interventionen abgeleitet, d.h. Interventionen die genau die Effekte generieren, die auch ein e-Moderator durch eine Aktion seinerseits erreicht (z.B. Motivation von Studierenden an der Diskussion mitzuwirken). Die Hauptidee der effekt-äquivalenten Interventionen besteht jedoch darin, dass sie zwar dieselben Effekte generieren, wie eine Aktion eine e-Moderators, allerdings ohne, dass Arbeit für den e-Moderator entsteht. Dass diese Idee tatsächlich greift, wird in einer weiteren Case Study empirisch gezeigt. Eine umfangreiche Matrix, die Aktionen von e-Moderatoren effekt-äquivalenten Interventionen zuordnet, ist ein wesentliches Ergebnis dieser Arbeit. Ergänzt wird dies um Guidelines für den Einsatz von Wikis und Blogs in der Lehre, sodass auch weitere moderne Werkzeuge zum Wissensaustausch in der Arbeit berücksichtigt werden.

Im unternehmerischen Umfeld bedarf es virtueller Lern-Arbeitsumgebungen, die Neulinge und Experten gleichermaßen effizient unterstützen und Lernunterstützungsformen in spezifischen Aufgabenbereichen ad hoc anbieten. Derzeit muss kontextspezifische Lernunterstützung aber aufwendig Maß geschneidert und in Form eines von Grund auf neu entwickelten Systems in die Arbeitsumgebung eingeführt werden.Mit dieser Dissertation wurde zur Lösung dieses Problems ein effizienter Entwicklungsprozess für solche virtuellen Lern-Arbeitsumgebungen - die so genannte AD-HOC Methodik - entwickelt und getestet. Bei der AD-HOC Methodik werden Lernproblemsachverhalte mit Learning Patterns, die, ähnlich den Object Oriented Design Patterns, für verschiedene Lernmuster geeignete Unterstützungsformen beschreiben, adressiert. Die Umsetzung der Lernunterstützungsformen geschieht dann mit "generischen Funktionen". Mit diesen werden die Designanforderungen der Umgebung mit den kommunikations-, kooperations- und informationsbezogenen Werkzeugen vorhandener Systeme in Beziehung gesetzt, um darauf basierend die virtuelle Lern-Arbeits- umgebung umzusetzen. Schließlich wurde die AD-HOC Methodik in drei Fallstudien in unterschiedlichen Bereichen erfolgreich getestet.Somit steht mit dieser Dissertation erstmals eine systematische Methodik zur effizienten und kostengünstigen Entwicklung von virtuellen Lern-Arbeitsumgebungen zur Verfügung.Schlüsselwörter: Wissensmanagement, E-Learning, CSCL, Wissensarbeit, Learning Pattern Katalog, Generische Funktionen, Produktivität, System Design.

In den Forschungsbereichen Wissenserschließung (Knowledge Discovery) und Wissensmanagement-Systeme (Knowledge Management Systems) ist Metadaten ein sehr breiter Begriff. Andere Begriffe wie Ontologien oder Topic Maps grenzen den Begriff Metadaten ein und definieren so ein spezifischere Forschungsgebiete, die auch außerhalb der Bereiche Wissenserschließung und Wissensmanagement, zum Beispiel im Semantic Web, eine große Bedeutung erlangt haben.Ein Aspekt von Metadaten ist die bessere Interpretierbarkeit im Vergleich zur Betrachtung von unstrukturierten textuellen Daten. Im Fall von semantischen Metadaten wird nur wenig Spielraum gelassen die Bedeutung des Inhalts zu interpretieren. So sind Beschreibungen von Zusammenhängen zwischen Konzepten besser modellierbar und für Algorithmen und Verarbeitungsmethoden wird die Semantik von Daten besser zugänglich gemacht. Damit wird auch die Möglichkeit eröffnet Wissenserschließungsmethoden auf einer höheren abstrakten Ebene der Semantik anzusiedeln. Die Thematik einfacher Metadaten auf Basis von Schlüssel-Wert Paaren (auch Attribute genannt) gilt als hinreichend erforscht, als zukunftsweisend wurden Metadatenstrukturen auf Basis gerichteter Graphen erkannt. Daher konzentriert sich Arbeit speziell auf komplexe Metadatenstrukturen wie semantische Informationen auf Basis von Graphen.

xxx

Die Notwendigkeit des effektiven Managements von Wissen wird heute von Unternehmen zunehmend erkannt. Aus diesem Grund wurden neue vielversprechende und mächtige Technologien von Wissenschaft und Wirtschaft entwickelt. Mit der Verfügbarkeit und Weiterentwicklung dieser Innovationen verstärkt sich auch die Bereitschaft von Unternehmen Wissensmanagement-Technologien anzuwenden. Die erfolgreiche Anwendung derartiger Technologien in Unternehmen stellt jedoch eine komplexe, mehrdimensionale Herausforderung und ein aktuelles Forschungsgebiet dar. Die vorliegende Arbeit nimmt sich deshalb diesem Thema an und stellt einen Framework für die Entwicklung von geschäftsprozessunterstützenden, technologischen Wissensinfrastrukturen vor. Während dabei Geschäftsprozesse den Ausgangspunkt für die Anwendung von Wissensmanagement-Technologien bieten, so repräsentieren Wissensinfrastrukturen ein Konzept, dass Wissensmanagement in Organisationen ermöglicht. Der in dieser Arbeit entwickelte B-KIDE Framework bietet Organisationen Unterstützung in der Entwicklung von Wissensinfrastrukturen, welche innovative Wissensmanagementfunktionalitäten beinhalten und sichtbar organisatorische Geschäftsprozesse unterstützen, an. Das entwickelte B-KIDE Tool erleichtert die Anwendung des B-KIDE Frameworks für Entwickler von Wissensinfrastrukturen. Drei durchgeführte, empirische Studien mit Unternehmen unterschiedlichster Branchen bekräftigen die Relevanz und Viabilität der eingeführten Konzepte.

xxx

xxx

Gewaltige Fortschritte in der Computertechnologie und die Weiterentwicklung des Internets haben zu neuen Ansätzen beim Lernen und Lehren geführt, die unter dem Begriff e-Learning zusammengefasst werden. Diese Dissertation legt dar, was von e-Learning erwartet werden kann, und untersucht, obwohl eigentlich auf die technologischen Aspekte orientiert, alle Arten von Anforderungen für e-Learning Umgebungen: pädagogische, funktionale und nicht-funktionale. Ein spezielles Kapitel wird allen für das eLearning Gebiet relevanten Standards gewidmet, aufgrund ihrer Wichtigkeit bei der Steigerung der Interoperabilität, der Senkung von Kosten und der Akzeptanzsteigerung.Ein Beispiel für ein State-of-the-Art e-Learning System, das vom Autor entworfen und unter seiner Führung entwickelt wurde, wird ausgeführt, auf dessen Basis erfolgreich abgeschlossene Projekte präsentiert, um die möglichen Einsatzgebiete aufzuzeigen, und Ideen für weitere Entwicklungen werden skizziert.

Der Schwerpunkt der heutigen wissensintensiven Gesellschaft liegt in der Bereitstellung von Wissen in Echtzeit in richtiger Form und Menge an den Wissensarbeiter. Personalisierung, also die Anpassung eines Systems an die Benutzeranforderungen, gewinnt immer mehr an Bedeutung als Möglichkeit zur Lieferung relevanten Wissens. Personalisierung kann statischer oder dynamischer Form sein. Statische Personalisierung findet zum Zeitpunkt des Entwurfs oder des Übersetzens statt, wobei dynamische Personalisierung zur Echtzeit stattfindet. Statische Personalisierung ist beschrännkt, weil es Personalisierung zu einem bestimmten Zeitpunkt lediglich unter Berücksichtigung des derzeitigen Interesses und Wissenshintergrundes des Wissensarbeiters definiert. Die Einschränkungen sind offensichtlich: Dynamische Wechsel in Interesse und Wissen werden von den bisherigen Konzepten nicht erfasst. Vor diesem Hintergrund gewinnt dynamische Personalisierung zunehmend an Bedeutung. Die Hauptidee dynamischer Personalisierung ist die Unterstützung von Wissensarbeitern, so dass diese Personalisierungseigenschaften definieren können, die sich ständig an die Bedürfnisse, Interessen, den Kontext und die Umwelt dieser Wissensarbeiter in der sie tätig sind anpassen. Obwohl sich zur Zeit etliche wissenschaftliche Ansätze mit statischer Personalisierung befassen, wird relativ geringe Aufmerksamkeit auf die konzeptionelle Basis dynamischer Personalisierung gelegt. Eine umfassende Studie der existierenden wissensintensiven Systeme verschiedener Bereiche zeigt deutlich, dass bereits viele Systeme Eigenschaften anbieten, die dynamische Personalisierung unterstützen, jedoch existieren von einem wissenschaftlichen Standpunkt aus keine soliden und exakten Modelle der Hauptmerkmale dynamischer Personalisierung.Das Ziel dieses Arbeit ist dynamische Personalisierung aus konzeptioneller Sicht zu untersuchen. Dieses Ziel wird durch das Begründen eines allgemeinen Verständnisses und durch Definition des Begriffs dynamische Personalisierung, sowie durch die Einführung eines Gerüsts für die Beschaffung und Bereitstellung von dynamischer Personalisierung fuer wissensintensive Systeme basierend auf dem aktuellen Benutzer Kontext erreicht. Dieser Benutzer Kontext beinhaltet nicht nur Benutzer Präferenzen und Profilinformationen, sondern auch umweltbedingte Aspekte wie Zeit, Ort, Zugangsgerät und Netzwerkseigenschaft. Das Gerüst beinhaltet ein abstraktes Meta-Modell zur Bereitstellung von dynamischen Personalisierungsfunktionen, bereichs-spezifischen Modellen und eine “Mapping”-Methodologie. Das Verwenden dieser Methodologie (einer Sequenz von Leitfäden) erlaubt die Ableitung bereichsspezifischer Modelle für verschiedene wissensbasierte Bereiche vom abstrakten Meta-Modell. Die dynamischen Personalisierungsfunktionen von Modellen und Applikationen der verschiedenen wissensintensiven Bereiche werden durch dynamische Personalisierungsfunktionen der zugehörigen bereichspezifischen Modelle dargestellt. Das Gerüst ist allgemein gehalten, um die Anwendbarkeit des Gerüstes fuer eine grosse Anzahl von wissensintensiven Bereichen, die dynamischer Personalisierungsfunktionen bedürfen, zu ermöglichen.

Der Großteil der gängigen Wissensmanagementliteratur ist entweder aus einer Wirtschaftsperspektive geschrieben, wobei technische Überlegungen nur am Rande gestreift werden, oder aus einer Technologieperspektive, wobei der wirtschaftliche Kontext meist zu wenig Beachtung findet. Im Gegensatz dazu beschäftigt sich diese Dissertation mit der Rolle von Technologien im Wissensmanagement, ohne dabei organisatorische Fragen aus den Augen zu verlieren.Zwei unterschiedliche aber komplementäre Sichtweisen von Wissensmanagement werden präsentiert, die eine basierend auf Prozessen, die andere auf Interaktionen. Lessons Learned aus vergangenen Wissensmanagementprojekten werden gesammelt, zusammengefasst, kategorisiert und benutzt, um die dringlichsten Fragestellungen im Wissensmanagement hervorzuheben. Sieben Wissensmanagementprozesse und ihre Beziehungen werden detailliert diskutiert: Planen, Generieren, Integrieren, Organisieren, Transferieren, Warten und Bewerten von Wissen. Technologien mit dem Potenzial zur Unterstützung von Wissensmanagement werden in elf Gruppen eingeteilt und ihre Relevanz für Wissensmanagement wird systematisch untersucht, indem der Beitrag jeder der Technologiegruppen zu jedem der Wissensmanagementprozesse beurteilt wird. Viele offene Fragen und Gelegenheiten für zukünftige Forschung und Entwicklung werden identifiziert, sowohl organisatorische als auch technische. Eine ausgesprochen umfangreiche Wissensmanagementbibliographie schließt die Dissertation ab. Auszug aus dem Buch Knowledge Management → 272,72 kBOrder from Springer →