Das automatische Auffinden von Dokumenten in digitalen Bibliotheken und dem World Wide Web gewinnt Aufgrund der riesigen Datenmengen zunehmend an Bedeutung. Focused Crawling hat zum Ziel nur themenrelevante Dokumente abzufragen und wird deshalb hauptsächlich im Bereich von themenspezifischen Suchmaschinen eingesetzt. Crawler werden auch dazu verwendet um das World Wide Web nach Daten von individuellem Interesse abzusuchen. Im Umfeld von digitalen Bibliotheken kommt Focused Crawling beim Erzeugen von Dokumenten Sammlungen und zur Verwaltung dieser zum Einsatz. Focused Crawling, und damit auch diese Arbeit, gliedert sich in zwei Teilbereiche, einem Web Mining Teil und einen Strategie-Planungs Teil. Der Web Mining Teil behandelt dabei auftretende Probleme im Bereich von Skalierung und Performanz. Das in dieser Arbeit vorgestellte KFetch WebMiner System, ein erweiterbares und flexibles Crawling System, bietet Lösungen fuer die wichtigsten Probleme im Bereich von Web Mining an. Der zweite Teil der Arbeit befasst sich mit Information Retrieval und Maschinellem Lernen im Bereich von Focused Crawling. Verschiedene Crawling Algorithmen werden hier miteinander verglichen und der Einfluss von "Whitelist" und "Blacklists" wird untersucht. Es hat sich herausgestellt, dass die Verwendung von "Whitelists" zu einer Verbesserung führen kann. Des Weiteren wird ein Crawling Algorithmus vorgestellt, der auf Reinforcement Learning mit Funktions Approximation und Vorwissen basiert.

Die kontinuierliche Wissensdiagnose stellt eine zentrale Herausforderung in adaptiven Lernsystemen, vor allem im Arbeitskontext, dar. Implizite Wissensdiagnose ist eine Möglichkeit, arbeitsgebundenes Wissen auf indirektem Weg über das Benutzerverhalten zu erfassen. Die vorliegende Feldstudie konzentriert sich auf die Validierung einer impliziten Wissensdiagnose (Knowledge Indicating Events, KIE) durch das User Model des arbeits-integrierten adaptiven Lernsystems APOSDLE. Eine Gruppe von sechs Untersuchungs-personen testete in einem Kleinunternehmen das adaptive Lernsystem APOSDLE drei Monate lang in ihrer natürlichen Arbeitsumgebung. Um den Genauigkeitsgrad des User Models messen zu können, wurde das erfasste Wissen im User Model mit externen Kriterien (Selbst- und Fremdeinschätzung) verglichen. Dafür wurden zum Einen die erfassten Arbeitsbereiche und zum Anderen die erfassten Wissenslevels (Expertise, Advanced, Beginner) im User Model berücksichtigt. Die Ergebnisse zeigen einen mäßigen Zusammenhang zwischen den erfassten Arbeitsbereichen des Systems und der Selbst- und Fremdeinschätzung. Zwischen dem erfassten Wissenslevels des Systems und dem selbst- und fremdeingeschätzten Wissenslevels wurde ein eher geringer Zusammenhang beobachtet. Aus der Literatur geht hervor, dass gewöhnlich mäßige Zusammenhänge zwischen User Model und externen Kriterien gefunden wurden. Aufgrund dessen erscheint eine Einbeziehung der KIE vielversprechend für die Wissensdiagnose im arbeits-integrierten Lernsystem APOSDLE. Die zusätzliche ROC Kurven Analyse zeigt eine geringere bis mittlere Sensitivität des Systems. Durch qualitative Inhaltsanalysen von Interviews und einem User Diary wurden folgende Faktoren als beeinflussend für die Validität des User Models festgestellt: Systembenutzung, Exploratives Verhalten eines Benutzers und das KIE-Mapping sowie die KIE-Algorithmen des Systems.

Diese Masterarbeit befasst sich mit einer Untersuchung von Methodiken für die Analyse und das Verstehen von Diskussionen, die im Web statt finden. Hauptaugenwerk wird hierbei auf die Erforschung der Meinungen, die sich aus den Inhalten von Webdiskussionen, konkret aus Diskussionsforen, ermitteln lassen, gelegt. Im Rahmen des praktischen Teils wird ein Prototyp für die Analyse und Auswertung der Informationen aus den Foren für die Domäne Marktforschung im Rahmen des nationalen Forschungsprojektes Understanding Advertising erstellt.

Diese Masterarbeit befasst sich mit einer Untersuchung von Methodiken für die Analyse und das Verstehen von Diskussionen, die im Web statt finden. Hauptaugenwerk wird hierbei auf die Erforschung der Meinungen, die sich aus den Inhalten von Webdiskussionen, konkret aus Diskussionsforen, ermitteln lassen, gelegt. Im Rahmen des praktischen Teils wird ein Prototyp für die Analyse und Auswertung der Informationen aus den Foren für die Domäne Marktforschung im Rahmen des nationalen Forschungsprojektes Understanding Advertising erstellt.

Diese Masterarbeit befasst sich mit einer Untersuchung von Methodiken für die Analyse und das Verstehen von Diskussionen, die im Web statt finden. Hauptaugenwerk wird hierbei auf die Erforschung der Meinungen, die sich aus den Inhalten von Webdiskussionen, konkret aus Diskussionsforen, ermitteln lassen, gelegt. Im Rahmen des praktischen Teils wird ein Prototyp für die Analyse und Auswertung der Informationen aus den Foren für die Domäne Marktforschung im Rahmen des nationalen Forschungsprojektes Understanding Advertising erstellt.

Die vorliegende Arbeit untersucht den Nutzen von konnektionistischen Modellen für das Adaptive Information Retrieval. Adaptives Information Retrieval bezeichnet die Anpassung des Suchprozesses an den individuellen Kontext sowie die individuellen Bedürfnisse des Benutzers. Das Ziel von adaptiven Retrieval-Systemen ist, auf Basis von Benutzer-Feedback zur Güte (d.h. Relevanz) vorheriger Resultate, die Effektivität des Systems zu verbessern. Im Rahmen dieser Diplomarbeit wurde ein Modell für das Adaptive Information Retrieval entwickelt, das die Adaption des Systems in Bezug auf langfristige Benutzerbedürfnisse ermöglicht, indem das Modell auf Ideen und Techniken aus dem Bereich der probabilistischen Indizierung und Retrievals sowie der Neuronalen Netze zurückgreift. Das entwickelte Modell stellt eine Erweiterung des assoziativen Retrieval-Modells von Scheir [2008] dar. Dieses assoziative Modell repräsentiert Assoziationen zwischen Informationsobjekten (d.h. Indexterme und Dokumente) als einen gewichteten Graphen, der auch als Assoziatives Netz bezeichnet wird. Die Verarbeitung von Anfragen in Scheiers Modell ist mittels Aktivierungsausbreitung analog zur Informationsverarbeitung in Neuronalen Netzen realisiert. Das konnektionistische Modell, das im Laufe der Arbeit entwickelt wurde, benutzt den effizienten Backpropagation Algorithmus, um die Struktur des Assoziativen Netzes - basierend auf Relevanz-Feedback - zu modifizieren, mit dem Ziel, dass das Modell in der Lage ist, den intuitiven Begriff der Relevanz besser wiedergeben zu können. In weiterer Folge beschreibt die Arbeit die Referenzimplementierung des Modells im APOSDLE-System und präsentiert die Ergebnisse einer Systemevaluierung basierend auf einer kleinen Testkollektion aus Dokumenten, Anfragen und Relevanzbewertungen. Die Evaluierung zeigt eine signifikante Verbesserung der Effektivität des adaptiven Modells gegenüber dem originalen, assoziativen Modell. Somit schafft das vorgestellte Modell die Grundlage, Relevanz-Feedback in das Retrieval-Modell von Scheir [2008] einfließen zu lassen.  

Diese Arbeit beschäftigt sich mit der Begrifflichkeit der Reflexion und im speziellem mit dem Einsatz eines reflexiven Prozesses im arbeitsintegrierten Lernen. Reflexion als eine Fähigkeit des Wissensarbeiters seinen Entscheidungsfindungsprozess durch das Miteinbeziehen von Erfahrungswissen positiv zu beeinflussen. Als Wissensarbeiter werden vor allem solche Personen verstanden, die auf Basis ihres Fachwissens und ihrer Kreativität Innovationen vorantreibt. Es wird versucht den Prozess der Reflexion unter Zuhilfenahme von einschlägiger Literatur zu zerlegen und die einzelnen Bestandteile herauszuarbeiten. Zudem werden Modelle vorgestellt, die dazu bestimmt sind einen reflexiven Prozess zu beschreiben. Aufbauend auf diese Erkenntnisse werden verschiedene Methoden eingeführt, die einen Reflexionsprozess unterstützen können. Diese Methoden werden auf ihren möglichen Einsatz als Unterstützungsmethoden für Reflexion geprüft. Der Einsatz von Reflexionsmethoden ist jedoch nur ein Teil davon, was in dieser Arbeit unter Reflection Support zu verstehen ist. Das Ziel war es ein möglichst generelles System zu schaffen, welches den arbeitsintegrierten Lernprozess durch Reflexion unterstützt. Diese Beschreibung liefert die Voraussetzungen dafür, dass der Prozess der Reflexion im Umfeld des arbeitsintegrierten Lernens ablaufen kann. Die Ergebnisse, die aus diesem abstrakten Design gewonnen wurden, wurden in letzter Konsequenz dem Zielsystem APOSDLE (Advanced Process- Oriented Self- Directed Learning Environment) zugeführt. Es entstand ein Prototyp, der Reflection-Support im APOSDLE Projekt verwirklicht hat. Die so genannte Trigger Engine hat nicht nur die Aufgabe den Benutzer des APOSDLE Systems mit den richtigen Reflexionstools zu unterstützten, sondern vor allem die Funktion den geeigneten Zeitpunkt dieser Reflexionsmöglichkeiten herauszufinden. Als Ergebnis wurde ein Prototyp geschaffen der als Modul im APOSDLE System eingesetzt werden kann.  

In der heutigen Zeit werden dem Benutzer eine Vielzahl von Diensten und Anwendungen über das Netzwerk angeboten. Egal ob dem Privatanwender im Internet, oder dem Mitarbeiter in einem Unternehmensportal. In beiden Bereichen muss der Benutzer mit verschiedenen Anwendungen kommunizieren und interagieren. Ein großes Problem stellt dabei die Identifizierung an einen solchen Dienst dar. Jeder der angebotenen Dienste arbeitet mit einem eigenen isolierten Identifikationsmechanismus. Am häufigsten ist der Gebrauch von Benutzername und Passwort in Verwendung.\\ Durch die steigende Anzahl der verwendeten Dienste, steigt auch die Anzahl der Benutzernamen-Passwort Paare für den Benutzer. Um dieser Entwicklung entgegen zu wirken gibt es verschiedene Single Sign-On Lösungen. Ziel hinter einem Single Sign-On System ist die einmalige Authentifizierung an einem System und die Verwendung sämtlicher weiterer Dienste ohne erneute Anmeldung. Dadurch muss der Benutzer nur ein Benutzername-Passwort Paar merken. Dies führt unter anderem zu einer höheren Sicherheit und einer Verbesserung der Usability. \\ Diese Arbeit nimmt sich diesem Thema an und untersucht vorhandene Single Sign-On Lösungsansätze. Durch die Betrachtung der einzelnen Single Sign-On Systeme, wird ein Überblick über den Aufbau und der Funktionsweise gegeben. Auf Basis dieser Recherche werden Entscheidungskriterien bestimmt, welche die einzelnen Lösungsansätze hinsichtlich der Tauglichkeit für eine praktische Umsetzung bewerten.\\ Der daraus resultierende Single Sign-On Lösungsansatz wird in weiterer Folge für die Online Plattform www.bravestone.at der Firma Bravestone Information Technology GmbH konzipiert und umgesetzt.  

Für das Management einer Unternehmung ist es mitunter eine Herausforderung, Entscheidungen auf Basis von Kennzahlen bzw. Reports zu treffen. Die enorm steigende Menge an Transaktionsdaten bei gleichzeitiger Vergrößerung des Umfanges an Funktionalitäten der Softwaresysteme und darüber hinaus geforderter Erweiter- und Wiederverwendbarkeit von bestehenden Softwaremodulen oder -bibliotheken, Flexibilität, Skalierbarkeit ... - fordern den Einsatz entsprechender Architekturen und Technologien in solch einem Umfeld. In dieser Arbeit wird das Architekturmuster Service-Oriented Aritecture (SOA) als Ansatz für eine universale Middleware, welche auch die Daten für ein Reportingsystem bereitstellen kann, an exemplarischen Java-basierten Technologien erprobt. Dabei sollen über sämtliche Layer hinweg aktuelle Technologien eingesetzt werden, beispielsweise Hibernate oder JPA für den Persistencelayer, OSGi als modulares SOA Framework und Webservices als Schnittstelle on Top of the Middleware, dessen Dienste ein Reportingframework nutzen kann. Zur Auswahl eines Reportingframeworks für die Verwendung in dieser Komposition werden die Features einiger kommerzieller als auch Opensource Implementierungen gegenübergestellt. Da OSGi ein dynamisches Komponentensystem für die Java Plattform ist und da es von den meisten Opensource (und auch proprietären) Bibliotheken noch keine OSGi konformen Bundles (Releases) gibt, werden ausgewählte Java Bibliotheken prototypenhaft in solche Plug-ins gebundled. Auf Basis dieser Bundles wird ein Prototyp-Service erstellt, wobei auch kurz die Vorteile der Versionseigenschaften von OSGi anhand einer Beispielmigration des Dienstes demonstriert wird. Eine kurze Erläuterung soll die Vorteile des Einsatzes einer solchen (Enterprise) Service-Oriented Architecture basierten Middleware auch im Bereich des Reportings gegenüber einem klassischen datenbankzentrierten Datawarehouse-System darlegen. 

E-Government Anwendungen und Services entwickeln sich ständig weiter. Diese Entwicklung wird durch kontinuierlich steigende Anforderungen und Erwartungen der heutigen Informationsgesellschaft und Innovationen von Informations-und Kommunikationstechnologien (IKT) getrieben. Um e-Government Strategien umsetzen zu können, muss die Verwaltung ihre bisherigen Geschäftsprozesse an die neuen Anforderungen und Möglichkeiten anpassen. Das Ziel von e-Government ist die Verbesserung der Qualität und Effizienz der Verwaltung, um wertvolle, leicht zugängliche, und sichere elektronische Behördendienste für Unternehmen und Bürger anbieten zu können. Die Herausforderung liegt in der Integration von verteilten und technisch unterschiedlichsten Systemen, wobei eine der wichtigsten Anforderungen von e-Government die Integration von bestehenden Services und die Wiederverwendung vorhandener Anwendungen und Backoffice Systemen ist. Diese Masterarbeit stellt eine Lösung des Integrationsproblems vor, die auf Methoden der Service-Oriented Architecture (SOA) basiert. SOA ist ein Paradigma, aus dem konkrete Softwarearchitekturen abgeleitet werden können. In diesem konkreten Fall wird eine SOA-Architektur präsentiert, die Probleme bei der Integration von heterogenen Backoffice Systemen durch den Einsatz von Web Services löst. Entsprechende SOA Design-Kriterien und Richtlinien werden in der vorliegenden Arbeit beschrieben. Im Rahmen des praktischen Teiles dieser Masterarbeit wurden Software Anwendungen und Services implementiert, die als Teil des e-Government Programms in Österreich entwickelt wurden, um die Kooperation zwischen Behörden effizienter zu gestalten.  

Im globalen Wettbewerb erkennen viele Organisationen die Bedeutung von Wissen als strategischen Erfolgsfaktor an. Ein großes Potenzial für gezielte Wissensmanagementmaßnahmen erschließt sich aus den individuell stattfindenden Wissensprozessen. Die meisten bisherigen Versuche schlugen fehl, die Wissensprozesse auszuwerten und darzustellen, da sie entweder zu komplex, unübersichtlich oder zu wenig Fachinhalte aufwiesen.Das in dieser Arbeit vorgestellte Analyse-Werkzeug KnowFlow Report Engine nimmt sich dieser Herausforderung an. Mit Hilfe von gerichteten und ungerichteten Graphen werden die Wissensprozesse einer Organisation analysiert, ausgewertet und dargestellt. Eine Reihe von geeigneten Filterungen ermöglicht es, die Komplexität flexibel anzupassen.Auf Basis dieser Auswertungen können Analysten in Zukunft gezielt Wissensmanagements-Methoden und -Werkzeuge einsetzen, um die Ressource Wissen für die Organisation als Vorteil zu nutzen.

Aufgrund des enormen Informationsaufkommens in den letzten Jahren, ist es für Benutzer schwierig, relevante und interessante Informationen zu finden. Aus diesem Grund werden verstärkt personalisierte Systeme in Intranet System oder Webapplikationen eingesetzt.Um Anwendungen zu personalisieren wird anhand von Informationen über den Benutzer ein Modell generiert. Zur Erstellung eines langfristigen Benutzerprofiles eignet sich implizites Feedback besonders, da es die Interessen des Users widerspiegelt.In dieser Arbeit werden deshalb zuerst Interessensindikatoren genauer untersucht. Aufgrund dieser Ergebnisse wurde eine eigene Taxonomie von auswertbaren impliziten Interessensindikatoren erstellt. Aufbauend auf diese Indikatoren wird ein generisches Benutzermodell erzeugt.In dieser Arbeit wird das ”History-Based-Model“ verwendet. Im praktischen Teil dieser Arbeit wurde eine Webapplikation erstellt, die es ermöglicht implizite Interessensindikatoren zu beobachten und daraus ein Benutzermodell zu erstellen.Da die Anwendung nur mit freien Webtechnologien implementiert werden sollte, wurde AJAX verwendet. Da AJAX eine neue Technologie ist, wurde eine detaillierte Einführung in die Technologie sowie deren Einsatzmöglichkeiten gegeben.

Durch die Fülle an vorhandener Information steigt das Bedürfnis nach einer geeigneten Strukturierung eben dieser Datenflut, um dem jeweiligen Benutzer/System die Extraktion von Wissen zu erleichtern, oder überhaupt erst zu ermöglichen. Der erste Schritt um vorgegebene Datenbestände zu strukturieren besteht darin, geeignete Konzepte zu finden und zu definieren, nach denen die Dokumente gruppiert werden können. Die Summe der einzelnen Konzepte und die Beziehungen untereinander bilden dann die Struktur (Ontologie, Taxonomie) in die, im nächsten Schritt, alle Dokumente des Datenbestandes eingeordnet werden sollen. Dieser Vorgang ist im Allgemeinen nicht nur mit hohem Zeitaufwand verbunden, sondern führt in der Regel auch zu Problemen bei der automatischen Zuordnung von Dokumenten zu Konzepten.Ziel dieser Arbeit ist es nun bestehende, unstrukturierte Datenbestände mit Hilfe von machine-learning Algorithmen (Clustering) in einem semi-automatischen Prozess als Wissensstrukturkarte abzubilden. Dieser Prozess umfasst die Manipulation der Datenrepräsentation mit der Absicht, relevante Konzepte für weiterführende Aufgaben (z.B. Textklassifikation) zu extrahieren.

Informationen, die aus verschiedenen Quellen stammen und von unterschiedlichen Zielgruppen gelesen werden, sind schwierig zu organisieren. Unterschiedliche Anforderungen müssen berücksichtigt werden, um einen zielgruppengerechten Prozess aufzusetzen.In dieser Master Thesis werden Strategien und Tools beschrieben, die zur Verwaltung heterogener Datenbestände dienen und die Arbeit mit einem System verbessern sollen. Es werden drei unterschiedliche Bereiche betrachtet, die den Zyklus der Informationsverabeitung abbilden. Der Bereich "Publizieren" beschäftigt sich mit dem Prozess, wie ein Dokument in eine Datenbank aufgenommen werden kann. Im Bereich "Suche und Navigation" finden sich Hilfsmittel und Tools, um zu den gewünschten Dokumenten zu gelangen. Der Bereich "Maintenance" schließlich beschreibt Wege, wie das vorhandene System den Anforderungen des Wachstums gerecht werden kann.

Wissenslandkarten werden in der gängigen Literatur immer wieder als Werkzeuge der Effizienzsteigerung in Unternehmen bezeichnet. Diese These beruht auf der Annahme, dass sie das Finden von Unternehmensinformationen erleichtern und so Doppelspurigkeiten vermeiden.Diese Diplomarbeit geht der Frage auf den Grund, wie die eigen entwickelte Wissenslandkarte des Know-Center konzipiert sein muss, um die Wiederverwendung von projektbezogenen Informationen in neuen Projekten zu unterstützen.Sie umfasst eine theoretische Auseinandersetzung mit den wichtigsten Begriffen dieser Arbeit anhand der gängigen Literatur. Darauf folgt ein praktischer Teil, der die Beschreibung der Entwicklung der Know-Center Wissenslandkarte zum Inhalt hat. Des Weiteren kommt es zu einer Evaluierung der Wissenslandkarte im Hinblick auf die Forschungsfrage.

Online Community Plattformen dienen dazu, die Interaktion zwischen Internetbenutzern, die durch gemeinsame Interessen oder Aufgaben miteinander verbunden sind, zu ermöglichen und zu erleichtern. In der vorliegenden Arbeit werden solche „virtuellen Treffpunkte“ vor dem speziellen Hintergrund von jährlichen Konferenzen erörtert. Der Ausgangspunkt ist die Frage, mit welchen Maßnahmen der Informations- und Wissensaustausch zwischen den Konferenzterminen verbessert werden kann. Das Hauptziel dieser Arbeit ist die Entwicklung eines Konzepts, in dem die Anforderungen der verschiedenen Teilnehmergruppen einer internationalen Tagung analysiert werden. Es besteht die Annahme, dass der Einsatz einer Online Community Plattform für Konferenzen dem Zusammenhalt der Teilnehmer in Gemeinschaften und gleichzeitig der Akquisition neuer Teilnehmer dient.Ein Review aktueller Fachliteratur mündet in der Klärung des Begriffs „Community“, sowie einer Darstellung der Basiswerkzeuge und Erfolgsfaktoren für Online Communities. Acht halbstrukturierte, problemzentrierte Interviews mit Mitarbeitern eines österreichischen Forschungs- und Beratungsunternehmens werden durchgeführt und mit einer qualitativen Inhaltsanalyse ausgewertet. Die Befragten werden aufgrund ihrer Schlüsselrollen in der Organisation der genannten internationalen Tagung ausgewählt. Aus den Interviewergebnissen werden die Ziele der unterschiedlichen Teilnehmergruppen verglichen und nach Priorität geordnet. Danach erfolgt die Ausarbeitung mehrerer Anwendungsfälle („Use-Cases“), um detaillierte Szenarien aufzuzeigen, wie eine Online Plattform die Schlüsselrollen unterstützt.In den Use Cases sind hauptsächlich die funktionalen und technischen Anforderungen für die Online Plattform enthalten. Abschließend werden Potentiale für gemeinsame Aktivitäten in und zwischen den Teilnehmergruppen vor dem Hintergrund des jährlichen Rhythmus der Konferenz identifiziert. Basierend auf diesen Ergebnissen beinhaltet weiterführende Forschung die Wahl einer geeigneten technischen Plattform und die Bewertung eines ersten Prototyps.

Um Risikomanagement den heutigen wirtschaftlichen Bedingungen anzupassen und insbesondere wissensintensive Unternehmen bestmöglich zu unterstützen, wird am Grazer Know-Center an einem Framework zur Integration von Wissensrisiken in bestehende Risikomanagementmodelle und -systeme geforscht. Die Bewertung von Wissensrisiken ist ein kritischer Bereich, dessen Erfolg von der Kompatibilität der klassischen Risikobewertungsmodelle mit der praktischen Anwendbarkeit für Wissensrisiken abhängt. Das Ziel der Arbeit ist, eine optimale Methode zur Bewertung von Wissensrisiken zu empfehlen. Diese Methode muss eine geeignete Bewertung von Wissensrisiken ermöglichen und zudem anhand klassischer Risikobewertungsmodelle erfolgen. Um dieses Ziel zu erreichen, ist eine umfassende Literaturaufarbeitung über die vorherrschenden Ansätze notwendig. Die finale Auswahl der Modelle ist geprägt durch die Häufigkeit ihrer Verwendung in Theorie und Praxis. Zusätzlich zur Beschreibung dieser Modelle wird deren Anwendung für Wissensrisiken diskutiert. Im zweiten Teil der Arbeit werden die vorgestellten Modelle klassifiziert und anhand eines selbst definierten Kriterienkatalogs bewertet. Die Ergebnisse dieser Analyse werden anschließend aufbereitet und miteinander verglichen. Zudem wird ein Analyseraster zur Entscheidungsunterstützung bei der Auswahl der Modelle entwickelt. Abschließend wird eine Methode zur Bewertung von Wissensrisiken anhand klassischer Risikobewertungsmodelle empfohlen.

Aufgrund steigenden Wettbewerbs, neuen Gesetzen und Vorschriften gewinnt der Umgang mit Risiken immer mehr an Bedeutung. Ein effizientes Risikomanagement erfordert die Betrachtung von erfolgskritischen Risiken. In wie fern sich die Entwicklung von geeigneten Steuerungsmaßnahmen für diese Risiken unterstützen lässt, untersucht der Autor in dieser Arbeit.Dazu fasst er die für ein Unternehmen mit wissensintensiven Geschäftsprozessen und Tätigkeiten kritischen Risiken in einer neuen, weiter reichenden Definition zusammen. Darin wird zwischen wissensbasierten und wissensgefährdenden Risiken unterschieden. Aufbauend auf dieser Definition für den Begriff Wissenrisiken entwirft der Autor das Risk Response Planning Modell und implementiert einen Prototyp zur vereinfachten Anwendung.Wesentliche Stützpunkte des Modells sind ein Katalog an abstrahierten, generellen Wissensrisiken und ein Katalog an geeigneten Steuerungsmaßnahmen. Diese Kataloge werden durch eine vom Autor entwickelte Logik miteinander verbunden. Instanziiert ein Benutzer ein neues fallspezifisches Risiko von einem aus dem generischen Wissensrisikokatalog, kann das Modell anhand der logischen Verbindung zwischen den beiden Katalogen dem Benutzer geeignete generische Steuerungsmaßnahmen vorschlagen. Auf diese Weise unterstützt das Modell den Benutzer bei der Entwicklung von passenden Steuerungsmaßnahmen für Wissensrisiken.

Die digitale Informationsflut des 21. Jahrhunderts bietet jedem Forscher und Entwickler genug Motiv, um sich mit Information Retrieval jeder Art zu beschäftigen. Die Verknüpfung verschiedenster Medien wie Internet, Radio, Fernsehen, Tageszeitungen oder Telefon führt zu eine heterogenen Informationslandschaft, in der sich einheitlich Navigation und gemeinsame Suche nur schwer verwirklichen lassen. Das Wissensgebiet ?Information Retrieval? liefert viele ausgereifte Methoden für den Umgang mit Textdokumenten, auch für Bilder existieren bereits erprobte Retrieval-Mechanismen. Metadaten erlauben eine Anreicherung von Daten mit semantischen computerlesbaren Informationen unabhängig von ihrem Medium. Magick kombiniert diese Techniken, um eine als cross-media Applikation die scharfen Grenzen zwischen Medien zu verwischen und für den Anwender die Informationslandschaft homogener zu gestalten.

Die Motivation der vorliegenden Arbeit hat den Schwerpunkt im konzisen Auffinden von relevanten Gesetzesstellen im Hochschulrecht ausgehend von einem bekannten Sachverhalt. Dies entspricht dem rechtswissenschaftlichen Vorgang der Subsumtion, also der Zuordnung eines Sachverhalts zu einem, im Gesetz definierten Tatbestand.In weiterer Folge gewann der Gedanke eine Art von Hochsprache für das Semantic Web zu kreieren mehr Gewicht. Diese Stoßrichtung wird durch die zunehmende Verbreitung von Semantic Web-Basisvokabularen, wie z.B. Topic Maps, gerechtfertigt. Allerdings stoßen solche Vokabulare schon heute an eine entscheidende Grenze: Den Menschen, der ein solches Vokabular verwendet. Vergleicht man oben genannte Vokabulare mit einer Maschinensprache (Assembler) so wird offensichtlich, was fehlt, um das Semantic Web benutzer- und entwicklerfreundlicher zu machen: eben Hochsprachen, die das leisten, was LISP, Java usw. im Bereich der konventionellen Programmierung bieten.Weiters unterscheidet sich die Art, wie die Darstellung der Wissensmaterie (Ontologie) in der vorliegenden Arbeit vollzogen wird, von bisherigen Ansätzen. Der Heraklit'sche Gedanke (Panta Rhei) dient hier als Vorbild, um Wissensgebiete als eine Ansammlung von Vorgängen zu betrachten.Diese Diplomarbeit ist dem Bereich der angewandten AI zuzuordnen und als ein Beitrag zum Semantic Web mit dem Schwerpunkt auf die Implementierbarkeit und dem konkreten Nutzen der Ergebnisse zu verstehen.

Netzwerke zum Wissensaufbau, zur Wissensnutzung und zum Wissenstransfer sind seit Bestehen humaner Organisationsformen bekannt. Die gezielte Zusammenarbeit und Vernetzung von Wissensträgern zur gemeinsamen Nutzung von Wissen, wird als Wissensnetzwerk bezeichnet. Die Rolle der Informationstechnologie ist in diesem Umfeld heiß diskutiert, von Wissenschaftlern und Praktikern gleichermaßen. Technologieunterstützung ist keine Bedingung für den Aufbau bzw. den Bestand von Wissensnetzwerken, sie ermöglicht jedoch in vielen Bereichen eine Verbesserung der Rahmenbedingungen. Die Arbeit beschreibt aus der Sicht von Wissensnetzwerken die zeitliche Relevanz, den Nutzen und die Praxistauglichkeit von einzelnen Informationstechnologien. In diesem Zusammenhang ist ein Schwerpunkt der Arbeit die Untersuchung von integrierten Lösungen vor dem Hintergrund von Wissensmanagement. Die Analyse von praktischen Fragestellungen liefert schlussendlich Hinweise dafür, wie Informationstechnologien für Wissensnetzwerke den Rahmenbedingungen entsprechend eingesetzt werden können.

Ausgangspunkt dieser Arbeit ist die Beobachtung, dass ein Mehrwert für Wissensmanagementsysteme dann entsteht, wenn Wissensträger noch besser als bislang miteinander in Beziehung gesetzt werden können. Wissensträger können im Kontext von Wissensmanagement sowohl Nutzer als auch Dokumente sein. Vor diesem Hintergrund ist das Ziel dieser Arbeit, einerseits Zusammenhänge im Dokumentenbestand an sich und andererseits sowohl zwischen Nutzern untereinander als auch zwischen Nutzern und dem Dokumentbestand zu identifizieren und messbar zu machen.Ausgangspunkt hierfür bilden Ansätze aus dem Bereich der Recommender- und People-Locator-Systeme. Das durch Mitwirkung des Know-Center entwickelte System PADDLE - "Personal Adaptable Digital Library Environment" - stellt den Dokumentbestand bereit und soll in weiterer Folge um die angesprochene Funktionalität erweitert werden.Als Grundlage hierfür werden sogenannte Affinitätsmetriken auf der Basis von Metadaten entwickelt, mittels derer die Ähnlichkeit zwischen Wissensträgern gemessen werden kann. Es werden parametrisierbare Metriken über unterschiedliche Bezugsformen, wie Fach-, Zeit- und Ortsbezug konzipiert. Der Fokus liegt derzeit auf thematischen Meta-Daten, die den Inhalt eines Dokument anhand einiger weniger Schlagworte beschreiben. Die Konzepte werden prototypisch implementiert und in PADDLE integriert. Abschließend wird untersucht, wie gut sich die durch die Wahl geeigneter Parameter erzielbaren Ergebnisse mit der subjektiven Bewertung von "Ähnlichkeit" im Beispieldokumentbestand decken.

eLearning kann in Unternehmen so gut wie nie komplett neu eingeführt werden. Sehr oft haben sich traditionelle Unterrichtskonzepte etabliert und müssen bei der Erstellung eines neuen Konzepts berücksichtigt werden. Über die Einführung von eLearning von Beginn an, findet man sehr viel an Informationen - aber kaum jemand berücksichtigt den Prozess einer nahtlosen Integration von eLearning in bestehende traditionelle Unterrichtsstrukturen. Das Ziel dieser Arbeit ist, zu beschreiben wie dieser Integrationsprozess aussehen kann und wie ein eLearning-System inklusive aller notwendigen Komponenten implementiert werden kann. Anhand eines Industrieprojektes wird die praktische Anwendbarkeit diese Prozesses gezeigt, und die Umsetzung am Beispiel eines bekannten eLearning System durchgeführt.