Theses

Here you can find theses of Know-Center employees

2018

Polz Hans Georg

Is Google’s Wisdom-Of-The-Crowd a Valid Approach to Discerning Truth in the Age of Fake News

Bakk

Bakk
2018

Schlacher Jan Peter

Neo4-js: Object-Graph Mapping with Typed JavaScript and Neo4j

Bakk

Bakk
2018

Friedrich Matthias

Businesssuite, an Affordable and Secure Toolsuite for Managing Customer Data and Invoices

Bakk

Bakk
2018

Schaffer Robert

Evaluation of Vote/Veto Classifier i

Bakk

Bakk
Authorship identification techniques are used to determine whether a document or text was written by a specific author or not. This includes discovering the rightful author from a finite list of authors for a previously unseen text or to verify if a text was written by a specific author. As digital media continues to get more important every day these techniques need to be also applied to shorter texts like emails, newsgroup posts, social media entries, forum posts and other forms of text. Especially because of the anonymity of the Internet this has become an important task. The existing Vote/Veto framework evaluated in this thesis is a system for authorship identification. The evaluation covers experiments to find reasonable settings for the framework and of course all tests to determine the accuracy and runtime of it. The same tests for accuracy and runtime have been carried out by a number of inbuilt classifiers of the existing software Weka to compare the results. All results have been written to tables and were compared to each other. In terms of accuracy Vote/Veto mostly delivered better results than Weka’s inbuilt classifiers even though the runtime was longer and more memory was necessary. Some settings provided good accuracy results with reasonable runtimes.
2018

Leitgeb Martin

GPS Car Insurance: Assumptions versus Facts

Bakk

Bakk
2018

Breuß Mathias

Favoret Bookmarks: A Browser Extension Support My Users to Get Information Fast and Targeted

Bakk

Bakk
2018

Resch Sebastian

Implementation and Evaluation of a Bookmark and History Content Search Browser Add-on

Bakk

Bakk
2018

Lackner Patrick

Computing Cluster for Big Data Analysis

Bakk

Bakk
2018

Anthofer Daniel

A Neural Network for Open Information Extraction from German Text i

Master

Master
Systems that extract information from natural language texts usually need to consider language-dependent aspects like vocabulary and grammar. Compared to the development of individual systems for different languages, development of multilingual information extraction (IE) systems has the potential to reduce cost and effort. One path towards IE from different languages is to port an IE system from one language to another. PropsDE is an open IE (OIE) system that has been ported from the English system PropS to the German language. There are only few OIE methods for German available. Our goal is to develop a neural network that mimics the rules of an existing rule-based OIE system. For that, we need to learn about OIE from German text. By performing an analysis and a comparison of the rule-based systems PropS and PropsDE, we can observe a step towards multilinguality, and we learn about German OIE. Then we present a deep-learning based OIE system for German, which mimics the behaviour of PropsDE. The precision in directly imitating PropsDE is 28.1%. Our model produces many extractions that appear promising, but are not fully correct.
2018

Bruchmann Andreas

Privacy Protection via Pseudo Relevance Feedback

Bakk

Bakk
2018

Schiestl Andreas

Businesssuite, an Affordable and Secure Toolsuite for Managing Customer Data and Invoices

Bakk

Bakk
2018

Leitner Lorenz

Implementation and Evaluation of a Bookmark and History Content Search Browser Add-on

Bakk

Bakk
2018

Fernández Alonso, Miguel Yuste

Mining Frequent Patterns in Environmental Sensor Data i

Bakk

Bakk
The advances in data science provide us with a vast array of tools to analyse and better understand our environment. Of special interest to us is the topic of sequential pattern mining, in which statistic patterns are found within sequences of discrete data. In this work, we review some of the major techniques currently offered by the pattern mining field. We also develop a proof of concept tool for frequent itemset mining in Tinkerforge sensor data, showing how the application of the FP-Growth algorithm to Tinkerforge sensor data can provide valuable observations and offer an inexpensive yet powerful setting for further knowledge discovery processes. Lastly, we discuss some of the possible future lines of development of the presented problem.
2017

Valentan Stephan

How Design Patterns Impact Code Quality: A Controlled Experiment i

Bakk

Bakk
While design patterns are proposed as a standard way to achieve good software design little research is done on the actual impact of using these strategies on the code quality. Many books suggest that such methods increase flexibility and maintainability however they often lack any evi- dence. This bachelor thesis intends to empirically demonstrate that the use of design patterns actually improves code quality. To gather data about the code two applications were implemented, that are designed to meet the same requirements. While one application is developed following widespread guidelines and principles proposed by the object oriented programming, the other is implemented without paying attention to the topics of software maintenance. After complying to the basic requirements a number of additional features were implemented in two phases. At first a new graphical user interface is being supported, then a different data tier is added. The results show that the initial effort of implementing the program version following object oriented programming guidelines are noticeably higher in terms of code lines and necessary files. However, during the implementation of additional features fewer files needed to be modified and during one phase transition considerably less code was needed to be written while not performing worse in the other and furthermore the cyclomatic complexity of the code increased less rapid.
2017

Suppan Johannes

Semantischer RESTFul Web Service für die Visualisierung und Verwaltung von automotiven Entwicklungs-Tätigkeiten in einem Informations-Cockpit i

Bakk

Bakk
Product development starts with the product requirements. If these are defined, solutions are created for the individual components, which then correspond to the entire product requirements. The process of solution approaches and solution refinement is operated in many iterations until a corresponding quality of the product requirements is achieved. This entire ”knowledge process “is to be transferred into a knowledge management. This is why we are showing ways to make new information technologies of Web 2.0 usable for knowledge management in the automotive industry. It is based on a research project of the Virtual Vehicle Competence Center, which includes a software prototype (”information cockpit “). ”The information cockpit “links both the product requirements and development tasks with the project organization. Thus a Product Data Management (PDM) as well as a Requirement Management System (RQM) is mapped. The networking has succeeded in uniting the individual systems, which represents a novelty in this area. By networking the product data, request data and project organization, the user is able to obtain a quick overview of different data in the automotive development. As a result, the management as well as the design is able to use existing knowledge quickly and to provide newly generated knowledge for others in an unconventional manner. At present only the visualization is implemented. The data to be used are made available by ”Link-Nodes “from the data system. The goal is to transfer the demonstrator to the application ”information cockpit “. The ontology PROTARES (PROject TAsks RESources) is used here as a basis. This ontology includes the entire data schema. A semanitc representation-based transfer (REST) Ful Web Service was designed and implemented accordingly. The data storage layer is a triple-store database. ”The information cockpit “can be used to query the system, which graphically and structurally displays the information to the user. Through the use of these technologies it was possible to create a modular whole system for the system architecture. In the near future, data management can be tackled, not just visualization, but also changing the data. After that, you can still think about user administration, access control, and so on.
2017

Kuhs Stefan Claudio

DART: The Dataset Anonymization and Replication Tool i

Bakk

Bakk
Due to persistent issues concerning sensitive information, when working with big data, we present a new approach of generating arti cial data1in the form of datasets. For this purpose, we specify the term dataset to represent a UNIX directory structure, consisting of various les and folders. Especially in computer science, there exists a distinct need for data. Mostly, this data already exists, but contains sensitive information. Thus, such critical data is supposed to stay protected against third parties. Hence, this reservation of data leads to a lack of available data for open source developers as well as for researchers. Therefore, we discovered a way to produce replicated datasets, given an origin dataset as input. Such replicated datasets represent the origin dataset as accurate as possible, without leaking any sensitive information. Thus, we introduce the Dataset Anonymization and Replication Tool, short DART, a Python based framework, which allows the replication of datasets. Since we aim to encourage the data science community to participate in our work, we constructed DART as a framework with high degree of adaptability and extensibility. We started with the analysis of datasets and various le and MIME types to nd suitable properties which characterize datasets. Thus, we de ned a broad range of properties, respectively characteristics, initiating with the number of les, to the point of le speci c characteristics like permissions. In the next step, we explored several mathematical and statistical approaches to replicate the selected characteristics. Therefore, we chose to model characteristics using relative frequency distributions, respectively unigrams, discrete as well as continuous random variables. Finally, we started to produce replicated datasets and analyzed the replicated characteristics against the characteristics of the corresponding origin dataset. Thus, the comparison between origin and replicated datasets is exclusively based on the selected characteristics. The achieved results highly depend on the origin dataset as well as on the characteristics of interest. Thus, origin datasets, which indicate a simple structure, tend more likely to deliver utilizable results. Otherwise, large and complex origin datasets might struggle to be replicated succiently. Nevertheless, the results aspire that tools like DART will be utilized to provide arti cial data1for persistent use cases.
2017

Kopeinik Simone

Applying Cognitive Learner Models for Recommender Systems in Small-Scale Learning Environments i

PhD/ Dissertation

PhD
In recent years, various recommendation algorithms have been proposed to support learners in technology-enhanced learning environments. Such algorithms have proven to be quite effective in big-data learning settings (massive open online courses), yet successful applications in other informal and formal learning settings are rare. Common challenges include data sparsity, the lack of sufficiently flexible learner and domain models, and the difficulty of including pedagogical goals into recommendation strategies. Computational models of human cognition and learning are, in principle, well positioned to help meet these challenges, yet the effectiveness of cognitive models in educational recommender systems remains poorly understood to this date. This thesis contributes to this strand of research by investigating i) two cognitive learner models (CbKST and SUSTAIN) for resource recommendations that qualify for sparse user data by following theory-driven top down approaches, and ii) two tag recommendation strategies based on models of human cognition (BLL and MINERVA2) that support the creation of learning content meta-data. The results of four online and offline experiments in different learning contexts indicate that a recommendation approach based on the CbKST, a well-founded structural model of knowledge representation, can improve the users' perceived learning experience in formal learning settings. In informal settings, SUSTAIN, a human category learning model, is shown to succeed in representing dynamic, interest based learning interactions and to improve Collaborative Filtering for resource recommendations. The investigation of the two proposed tag recommender strategies underlined their ability to generate accurate suggestions (BLL) and in collaborative settings, their potential to promote the development of shared vocabulary (MINERVA2). This thesis shows that the application of computational models of human cognition holds promise for the design of recommender mechanisms and, at the same time, for gaining a deeper understanding of interaction dynamics in virtual learning systems.
2017

Frank Sarah

Automatic Generation of Regular Expressions i

Bakk

Bakk
This thesis deals with the creation of regular expressions from a list of input that should match the resulting expression. Since regular expressions match a pattern, they can be used to speed up work that includes large amounts of data, under the assumption that the user knows some examples of the pattern that should be matched. In the herein discussed program, a regular expression was created iteratively by working away from a very rudimentary regular expression, allowing for an adjustment of a threshold to mitigate the effect of not having any negative matches as input. The result is an easy creation of a sufficiently well-working regular expression, assuming a representative collection of input strings while requiring no negative examples from the user.
2017

Lukas Sabine

Coordination support for firebrigade teams in the case of forest fire i

Master

Master
Bei Waldbrandsituation steht der Krisenstab oft vor Problemen in Bezug auf die Koordination, Entwicklung einer Einsatzstrategie und dem Bewahren der Übersicht während des Einsatzes. Ziel dieser Arbeit war ein Basisprototyp zur Demonstration von Unterstützungsmöglichkeiten für den Operator in der Einsatzleitung. Bei der Entwicklung dieses Prototypen stand die Usability im Vordergrund. Zur Verbesserung der Usability wurden während des Softwareentwicklungsprozesses Methoden des User Centered Designs(UCD) angewendet. Bei der Entwicklung einer Software mit kleiner Nutzergruppe, konnte herausgefunden werden, dass durch die Gegebenheit der Nischenposition der Nutzer andere Methoden angewendet werden müssen als bei einer größeren Nutzergruppe. Für die finale Präsentation des Prototyps wurde ein internationaler Expertenworkshop ausgewählt, bei dem die Software demonstriert und anschließend mit den Experten diskutiert wurde. Aus den Diskussionen konnte die Schlussfolgerung getroffen werden, dass eine solche Software derzeit noch nicht existiert und in vielen Aufgaben des Einsatzstabes benötigt wird. Grundsätzlich kann gesagt werden, dass Methoden aus dem UCD eine gute Basis für die Softwareentwicklung von Katastrophenschutzsoftware bilden und die Weiterentwicklung dieses Softwareprototyp einen guten Anfang für die Entwicklung eines Waldbrandmanagementsystems darstellt.
2017

Veigl Robert

Multiplatform Mobile App for Data Acquisition from External Sensors i

Bakk

Bakk
Mobile apps become more and more important for companies, because apps are needed to sell or operate their products. For being able to serve a wide range of customers, apps must be available for the most common platforms, at least Android and iOS. Considering Windows Phones as well, a company would need to provide three identical apps - one for each platform. As each platform comes with their own tools for app development, the apps must be implemented separately. That means development costs may raise by a factor of three in worst case. The Qt framework promises multi platform ability. This means an app needs to be implemented just once but still runs on several platforms. This bachelor’s thesis shall prove that by developing such a multi platform app using the Qt framework. The app shall be able to collect data from sensors connected to the mobile device and store the retrieved data on the phone. For the proof the supported platforms are limited to the most common ones - Android and iOS. Using this app for recording data from a real life scenario demonstrates its proper functioning.
2017

Melbinger Paul

Person Recognition System for Construction Vehicles in Tunnelling and Mining i

Master

Master
Im Rahmen der Masterarbeit wurde ein Prototyp für ein Assistenzsystem für Baufahrzeuge zur Erkennung von gefährdeten Personen im Baustellenbereich entwickelt und evaluiert. In Voruntersuchungen wurden ausgesuchte Sensorprinzipien zur Verwendung für die Personenerkennung analysiert. Eine Auswahl an kameraoptischen- und Distanzsensoren lieferten Daten aus der Umgebung des Fahrzeuges. Der Fokus der Arbeit lag auf dem Entwurf einer geeigneten Architektur, um alle im Assistenzsystem verwendeten Komponenten und Module für Personenerkennungsalgorithmen zu fusionieren. Im prototypischen Aufbau wurde die Mensch-Maschine-Schnittstelle in Form eines Live-Kamera-Streams, mit eingeblendeten Warnungen in einer einfach zu verstehenden und verwendbaren Benutzeroberfläche, integriert. Im Zuge von Testreihen wurde die Leistungsfähigkeit des Systems bei verschiedenen Fahrzeuggeschwindigkeiten untersucht. Für Kombinationen von eingesetzten Sensoren wurden höchste zugelassene Geschwindigkeiten ermittelt, damit das Fahrzeug zum Stillstand gebracht werden kann, um einen Unfall zu vermeiden. Testläufe unter möglichst realen Bedingunen haben gezeigt, dass Personenerkennung in Echtzeit durchgeführt werden kann, aber auch viel Raum für Verbesserungen vorhanden ist. Fahrer werden in Situationen mit hohem Unfallrisiko gut vom System unterstützt und sind dadurch in der Lage Unfälle zu vermeiden. Außerdem wurden die Stärken und Schwächen des Personenerkennungssystem analysiert und es konnten detaillierte und wichtige Informationen über Arbeitssituationen und -abläufe, Verhalten von Fahrern, einzelnen Komponenten und dem gesamten System gewonnen werden.
2017

Rebol Manuel

Automatic Classification of Business Intent on Social Platforms i

Bakk

Bakk
People spend hours on social media and similar web platforms each day. They express a lot of their feelings and desires in the texts which they post online. Data analysts always try to find clever ways to get use of this information. The aim of this thesis is to first detect business intent in the different types of information users post on the internet. In a second step, the identified business intent is grouped into the two classes: buyers and sellers. This supports the idea of linking the two groups. Machine learning algorithms are used for classification. All the necessary data, which is needed to train the classifiers is retrieved and preprocessed using a Python tool which was developed. The data was taken from the web platforms Twitter and HolidayCheck. Results show that classification works accurately when focusing on a specific platform and domain. On Twitter 96 % of test data is classified correctly whereas on HolidayCheck the degree of accuracy reaches 67 %. When con- sidering cross-platform multiclass classification, the scores drop to 50 %. Although individual scores increase up to 95 % when performing binary classification, the findings suggest that features need to be improved fur- ther in order to achieve acceptable accuracy for cross-platform multiclass classification. The challenge for future work is to fully link buyers and sellers automatically. This would create business opportunities without the need of parties to know about each other beforehand.
2017

Müller Andreas

Supporting online learning for Starcraft II i

Master

Master
Question and answer (Q&A) systems are and will always be crucial in the digital life. Famous Q&A systems succeeded with having text, images and markup language as input possibilities. While this is sufficient for most questions, I think that this is not always the case for questions with a complex background. By implementing and evaluating a prototype of a domain-tailored Q&A tool I want to tackle the problem that formulating complex questions in text only and finding them consequently can be a hard task. Testing several non-text input possibilities including to parse standardized documents to populate metadata automatically and mixing exploratory and facetted search should lead to a more satisfying user experience when creating and searching questions. By choosing the community of StarCraft II it is ensured to have many questions with a complex background belonging to one domain. The evaluation results show that the implemented Q&A system, in form of a website, can hardly be compared to existing ones without having big data. Regardless users do see a potential for the website to succeed within the community which seems convincing that domain-tailored Q&A systems, where questions with metadata exist, can succeed in other fields of application as well.
2017

Köfler Armin

Verbesserung des Lagebewusstseins und der Maßnahmenergreifung bei der Sicherung von Großveranstaltunge i

Master

Master
Während der Durchführung von Großveranstaltungen muss eine Einsatzleitung bestehend aus den führenden Mitgliedern der beteiligten Organisationen die Sicherheit der Besucher gewährleisten. Der leitende Stab benötigt laufend Information, um stets Bewusstsein über die aktuelle Lage zu haben und bei Bedarf Maßnahmen zu setzen. Zur Abwendung drohender Gefahren und Lösung bestehender Lagen ist Lageinformation entscheidend. Hat Information den Stab erreicht, so muss sie effizient und fehlerfrei darin verteilt werden. Dadurch kann ein gemeinsames Lagebewusstsein entstehen, das für alle Mitglieder gleichermaßen unmissverständlich verfügbar ist. Um die Erfüllung dieser Aufgaben zu unterstützen, wurde ein Führungsunterstützungssystem entwickelt, dessen Funktionen mittels der Prinzipien von Design Case Studies durch iterative Prototypenverbesserungen, qualitative Interviews mit Sicherheitskräften und Feldstudien bei Großveranstaltungen bestimmt wurden. Mit Domänenexperten wurde die Nutzung boden- und luftgestützter Sensoren zur fusionierten Aufbereitung und Präsentation der aktuellen Lage bezüglich Verteilungen von Menschenmengen in einem geographischen Informationssystem (GIS) diskutiert. Dazu wurde ihnen der Prototyp mit einem synthetischen Datensatz zur Evaluierung vorgelegt. Nach der Beobachtung von Arbeitsprozessen der Einsatzleitung bei Veranstaltungssicherungen zum Finden von Schwachpunkten wurde das GIS-System auf die effiziente Bereitstellung von Stammdaten sowie der Visualisierung von Lagen für alle aktiven Stabsmitarbeiter ausgerichtet. Erkannte Schwächen konnten durch unterstützende Prototyp-Funktionen gemildert werden, wie die vergleichende Nachstellung von beobachteten Vorfällen mit dem Führungsunterstützungssystem im abschließenden Workshop zeigte.
2017

Kowald Dominik

Modellierung von Aktivierungsprozessen im menschlichen Gedächtnis zur Verbesserung von Tag Recommendations i

PhD/ Dissertation

PhD
Social tagging systems enable users to collaboratively assign freely chosen keywords (i.e., tags) to resources (e.g., Web links). In order to support users in finding descrip- tive tags, tag recommendation algorithms have been proposed. One issue of current state-of-the-art tag recommendation algorithms is that they are often designed in a purely data-driven way and thus, lack a thorough understanding of the cognitive processes that play a role when people assign tags to resources. A prominent exam- ple is the activation equation of the cognitive architecture ACT-R, which formalizes activation processes in human memory to determine if a specific memory unit (e.g., a word or tag) will be needed in a specific context. It is the aim of this thesis to investigate if a cognitive-inspired approach, which models activation processes in human memory, can improve tag recommendations. For this, the relation between activation processes in human memory and usage practices of tags is studied, which reveals that (i) past usage frequency, (ii) recency, and (iii) semantic context cues are important factors when people reuse tags. Based on this, a cognitive-inspired tag recommendation approach termed BLL AC +MP r is developed based on the activation equation of ACT-R. An extensive evaluation using six real-world folksonomy datasets shows that BLL AC +MP r outperforms current state-of-the-art tag recommendation algorithms with respect to various evaluation metrics. Finally, BLL AC +MP r is utilized for hashtag recommendations in Twitter to demonstrate its generalizability in related areas of tag-based recommender systems. The findings of this thesis demonstrate that activation processes in human memory can be utilized to improve not only social tag recommendations but also hashtag recommendations. This opens up a number of possible research strands for future work, such as the design of cognitive-inspired resource recommender systems
2017

Kurzmann Lukas

Data Mining - Variables and Feature Selection with Greedy and Non Greedy Algorithm i

Bakk

Bakk
This paper is about comparing variables and feature selection with greedy and non greedy algorithms. For the greedy solution the ID3 [J. Quinlan, 1986] algorithm is used in this paper, which serves as a baseline. This algorithm is fast and provides good results for smaller datasets. However if the dataset gets larger and the information, which we want to get out of it has to be more precise, several combinations should be checked. Therefore a non greedy solution is a possible way to achieve that goal. This way of getting information out of data tries every possibility/combination to get the optimal results. This results may contain combinations of variables. One variable on its own possibly provides no information about the dataset, but in combination with another variable it does. That is one reason, why it is useful to check every combination. Besides the precision, which is very good, the algorithm needs higher computational time, at least W(n!). The higher the amount of attributes in a dataset is the higher the computational complexity is. The results have shown, even for smaller datasets that the non greedy algorithm finds more precise results, especially in view of combination of several attributes/variables. Taken together, if the dataset needs to be analysed in a more precise way and the hardware allows it, then the non greedy version of the algorithm is a tool, which provides precise data especially at combinational point of view.
2017

Huysman Dorien

Ambulant Stress Detection in Patients with Stress Complaint i

Master

Master
This thesis demonstrates the potential and benefits of unsupervised learning with Self-Organizing Maps for stress detection in laboratory and free-living environment. The general increase in pace of life, both in the personal and work environment leads to the intensification and amount of work, constant time pressure and pressure to excel. It can cause psychosocial problems and negative health outcomes. Providing personal information about one’s stress level can counteract the adverse health effects of stress. Currently the most common way to detect stress is by the means of questionnaires. This is time consuming, subjective and only at discrete moments in time. Literature has shown that in a laboratory environment physiological signals can be used to detect stress in a continuous and objective way. Advances in wearable technology now make it feasible to continuously monitor physiological signals in daily life, allowing stress detection in a free-living environment. Ambulant stress detection is associated with several challenges. The data acquisition with wearables is less accurate compared to sensors used in a controlled environment and physical activity influences the physiological signals. Furthermore, the validation of stress detection with questionnaires provides an unreliable labelling of the data as it is subjective and delayed. This thesis explores an unsupervised learning technique, the Self-Organizing Map (SOM), to avoid the use of subjective labels. The provided data set originated from stress-inducing experiments in a con- trolled environment and ambulant data measured during daily-life activities. Blood volume pulse (BVP), skin temperature (ST), galvanic skin response (GSR), electromyogram (EMG), respiration, electrocardiogram (ECG) and acceleration were measured using both wearable and static devices. First, a supervised learning with Random Decision Forests (RDF) was applied to the laboratory data to provide a gold standard for unsupervised learning outcomes. A classification accuracy of 83.04% was reached using ECG and GSR features and 76.89% using ECG features only. Then the feasibility of the SOMs was tested on the laboratory data and compared a posteriori with the objective labels. Using a subset of ECG features, the classification accuracy was 76.42%. This is similar to supervised learning with ECG features, indicating the principal functioning of the SOMs for stress detection. In the last phase of this thesis the SOM was applied on the ambulant data. Training the SOM with ECG features from the ambulant data, enabled clustering from the feature space. The clusters were well separated with large cohesion (average silhouette coefficient of 0.49). Moreover, the clusters were similar over different test persons and days. According to literature the center values of the features in each cluster can indicate stress and relax phases. By mapping test samples on the trained and clustered SOM, stress predictions were made. Comparison against the subjective stress levels was however poor with a root mean squared error (RMSE) of 0.50. It is suggested to further explore the use of Self-Organizing Maps as it solely relies on the physiological data, excluding subjective labelling. Improvements can be made by applying multimodal feature sets, including for example GSR.
2017

Geigl Florian

Random Surfers as Models of Human Navigation on the Web i

PhD/ Dissertation

PhD
The Web is a central part of modern everyday life. Many people access it on a daily basis for a variety of reasons such as to retrieve news, watch videos, engage in social networks, buy goods in online shops or simply to procrastinate. Yet, we are still uncertain about how humans navigate the Web and the potential of factors influencing this process. To shed light on this topic, this thesis deals with modeling aspects of human navigation on the Web and the effects arising due to manipulations of this process. Mainly, this work provides a solid theoretical framework which allows to examine the potential effects of two different strategies aiming to guide visitors of a website. The framework builds upon the random surfer model, which is shown to be a sufficiently accurate model of human navigation on the Web in the first part of this work. In a next step, this thesis examines to which extent various click biases influence the typical whereabouts of the random surfer. Based on this analysis, this work demonstrates that exploiting common human cognitive biases exhibits a high potential of manipulating the frequencies with which the random surfer visits certain webpages. However, besides taking advantage of these biases, there exist further possibilities to steer users who navigate a website. Specifically, simply inserting new links to a webpage opens up new routes for visitors to explore a website. To investigate which of the two guiding strategies bears the higher potential, this work applies both of them to webgraphs of several websites and provides a detailed comparison of the emerging effects. The results presented in this thesis lead to actionable insights for website administrators and further broaden our understanding of how humans navigate the Web. Additionally, the presented model builds the foundation for further research in this field.
2017

Widnig Dominik

Evaluation of User Experience in a Location-Based Mobile Role-Playing Game i

Master

Master
Location-based games are currently more popular than ever for the general public. Games, such as Geocaching, Ingress and Pokemon Go have created a high demand in the app market and established themselves in a major category in the mobile gaming sector. Since location-based games are reliant on mobile sensors, battery life, cellular data connections and even environmental conditions, many problems can rise up while playing the game and hence, can reduce user experience and player enjoyment. The aim of this thesis is to improve the gaming experience of location-based games, which use map information to place virtual content at appropriate physical locations, with the assistance of an user-centered design approach. Therefore, a game named Geo Heroes was designed and implemented in order to evaluate it with existing quantitative and qualitative methods from research. The game was assessed in an empirical study with nine participants including a game-play session of about one hour. Participants were divided into an experimental and control group to author disparities in the implemented content placement algorithms. An already established questionnaire for traditional computer games, and one created by the author based on existing research in location-based games, were used to measure common factors in gaming experience. Additionally, participants sent log data with their current emotions during game-play after various interactions with game objects. Different outcome scenarios of interactions were considered to ensure a better analysis. Furthermore, an open group discussion was held to gather qualitative information from participants to reveal still undiscovered issues and to provide evidence from results of conducted quantitative methods. Results have shown that the questionnaire for location-based games is a useful tool to measure player enjoyment. In combination with the tracked emotions and a group interview, relevant information can be obtained in order to improve game design and mechanics.
2017

Draxler Fiona

Adaptive Writing Support – Suggesting Appropriate Tools based on Cognitive Processes i

Master

Master
Texts are of crucial importance for communicating and managing information. How- ever, text composition is still a challenge for many people: in order to effectively convey their message, writers need skills in planning and structuring, linguistic abil- ity, and also the ability to evaluate their own work. In this thesis, we look at how writers can be supported in all the tasks encom- passed in the writing process. To this end, and in addition to literature research, we conducted an experiment to analyse the characteristics of the writing processes as well as difficulties writers typically encounter when they search for information, plan the structure of their text, translate their ideas to words, and review their writing. We formulate requirements for aiding these tasks and propose support possibilities, with a special focus on digital solutions. Issues with existing tools are that they generally support only one aspect and interrupt the writing task. This was our motivation for developing a prototype of a comprehensive text composition tool which supports writers in all stages of their task. We chose to implement it as a Google Docs add-on, which means that it can be integrated seamlessly into the Google Docs text editor. The add-on offers a number of features specifically tailored to each writing process. Finally, we performed a user study to evaluate the features and the workflow while using the add-on.
2017

Lusser Michael

Predictive Analytics zur Wartungsoptimierung in der elektrischen Energiewirtschaft i

Master

Master
Die elektrische Energiewirtschaft befindet sich in einer Wende. Sowohl Energieerzeuger, wie auch Netzbetreiber sind von der Hinwendung zu regenerativen Energien betroffen.Höhere Kosten für Erzeugung und Übertragung stehen regulierten Einnahmen gegenüber. Instandhaltungskosten sind ein erheblicher Kostenfaktor. Es stellt sich die Frage, ob Predictive Analytics im Allgemeinen bzw. Predictive Maintenance im Speziellen eine Option zur Verminderung dieser Kosten bei gleichbleibender oder verbesserter Zuverlässigkeit sind. Nach einer Aufarbeitung der technologischen, wirtschaftlichen und rechtlichen Rahmenbedingungen, wird mittels Szenariotechnik ein narratives Szenario erstellt. Dieses dient der Stimulation von Experten aus verschiedenen Bereichen der elektrischen Energiewirtschaft. In der Folge werden diese Experten zu ihrer Meinung befragt. Auch wenn aktuell rechtliche Bedenken vorhanden sind, herrscht Einigkeit darüber, dass Predictive Maintenance in der elektrischen Energiewirtschaft kommen wird. Diese Änderungen sind nicht auf die Energieversorger beschränkt. Auch Zulieferbetriebe, Dienstleister und Kunden werden davon betroffen sein.
2016

Vega Bayo Marta

Reference Recommendation for Scientific Articles i

Master

Master
During the last decades, the amount of information available for researches has increased several fold, making the searches more difficult. Thus, Information Retrieval Systems (IR) are needed. In this master thesis, a tool has been developed to create a dataset with metadata of scientific articles. This tool parses the articles of Pubmed, extracts metadata from them and saves the metadata in a relational database. Once all the articles have been parsed, the tool generates three XML files with that metadata: Articles.xml, ExtendedArticles.xml and Citations.xml. The first file contains the title, authors and publication date of the parsed articles and the articles referenced by them. The second one contains the abstract, keywords, body and reference list of the parsed articles. Finally, the file Citations.xml file contains the citations found within the articles and their context. The tool has been used to parse 45.000 articles. After the parsing, the database contains 644.906 articles with their title, authors and publication date. The articles of the dataset form a digraph where the articles are the nodes and the references are the arcs of the digraph. The in-degree of the network follows a power law distribution: there is an small set of articles referenced very often while most of the articles are rarely referenced. Two IR systems have been developed to search the dataset: the Title Based IR and the Citation Based IR. The first one compares the query of the user to the title of the articles, computes the Jaccard index as a similarity measure and ranks the articles according to their similarity. The second IR compares the query to the paragraphs where the citations were found. The analysis of both IRs showed that the execution time needed by the Citation Based IR was bigger. Nevertheless, the recommendations given were much better, which proved that the parsing of the citations was worth it.
2016

Bassa Akim

GerIE: Open Information Extraction for German Texts i

Master

Master
Open Information Extraction (OIE) targets domain- and relation-independent discovery of relations in text, scalable to the Web. Although German is a major European language, no research has been conducted in German OIE yet. In this paper we fill this knowledge gap and present GerIE, the first German OIE system. As OIE has received increasing attention lately and various potent approaches have already been proposed, we surveyed to what extent these methods can be applied to German language and which additionally principles could be valuable in a new system. The most promising approach, hand-crafted rules working on dependency parsed sentences, was implemented in GerIE. We also created two German OIE evaluation datasets, which showed that GerIE achieves at least 0.88 precision and recall with correctly parsed sentences, while errors made by the used dependency parser can reduce precision to 0.54 and recall to 0.48.
2016

Teixeira dos Santos Tiago Filipe

Early Classification on Time Series Using Deep Learning i

Master

Master
This thesis aims to shed light on the early classification of time series problem, by deriving the trade-off between classification accuracy and time series length for a number of different time series types and classification algorithms. Previous research on early classification of time series focused on keeping classification accuracy of reduced time series roughly at the level of the complete ones. Furthermore, that research work does not employ cutting-edge approaches like Deep Learning. This work fills that research gap by computing trade-off curves on classification ”earlyness” vs. accuracy and by empirically comparing algorithm performance in that context, with a focus on the comparison of Deep Learning with classical approaches. Such early classification trade-off curves are calculated for univariate and multivariate time series and the following algorithms: 1-Nearest Neighbor search with both the Euclidean and Frobenius distance, 1-Nearest Neighbor search with forecasts from ARIMA and linear models, and Deep Learning. The results obtained indicate that early classification is feasible in all types of time series considered. The derived tradeoff curves all share the common trait of slowly decreasing at first, and featuring sharp drops as time series lengths become exceedingly short. Results showed Deep Learning models were able to maintain higher classification accuracies for larger time series length reductions than other algorithms. However, their long run-times, coupled with complexity in parameter configuration, implies that faster, albeit less accurate, baseline algorithms like 1-Nearest Neighbor search may still be a sensible choice on a case-by-case basis. This thesis draws its motivation from areas like predictive maintenance, where the early classification of multivariate time series data may boost performance of early warning systems, for example in manufacturing processes.
2016

Bischofter Heimo

Vergleich der Leistungsfähigkeit von Graphen-Datenbanken für Informationsvernetzung anhand der Abbildbarkeit von Berechtigungskonzepten i

Master

Master
Vernetzte Daten und Strukturen erfahren ein wachsendes Interesse und verdrängen bewährte Methoden der Datenhaltung in den Hintergrund. Einen neuen Ansatz für die Herausforderungen, die das Management von ausgeprägten und stark vernetzten Datenmengen mit sich bringen, liefern Graphdatenbanken. In der vorliegenden Masterarbeit wird die Leistungsfähigkeit von Graphdatenbanken gegenüber der etablierten relationalen Datenbank evaluiert. Die Ermittlung der Leistungsfähigkeit erfolgt durch Benchmarktests hinsichtlich der Verarbeitung von hochgradig vernetzten Daten, unter der Berücksichtigung eines umgesetzten feingranularen Berechtigungskonzepts. Im Rahmen der theoretischen Ausarbeitung wird zuerst auf die Grundlagen von Datenbanken und der Graphentheorie eingegangen. Diese liefern die Basis für die Bewertung des Funktionsumfangs und der Funktionalität der zur Evaluierung ausgewählten Graphdatenbanken. Die beschriebenen Berechtigungskonzepte liefern einen Überblick unterschiedlicher Zugriffskonzepte sowie die Umsetzung von Zugriffskontrollen in den Graphdatenbanken. Anhand der gewonnenen Informationen wird ein Java-Framework umgesetzt, welches es ermöglicht, die Graphdatenbanken, als auch die relationale Datenbank unter der Berücksichtigung des umgesetzten feingranularen Berechtigungskonzepts zu testen. Durch die Ausführung von geeigneten Testläufen kann die Leistungsfähigkeit in Bezug auf Schreib- und Lesevorgänge ermittelt werden. Benchmarktests für den schreibenden Zugriff erfolgen für Datenbestände unterschiedlicher Größe. Einzelne definierte Suchanfragen für die unterschiedlichen Größen an Daten erlauben die Ermittlung der Leseperformance. Es hat sich gezeigt, dass die relationale Datenbank beim Schreiben der Daten besser skaliert als die Graphdatenbanken. Das Erzeugen von Knoten und Kanten ist in Graphdatenbanken aufwendiger, als die Erzeugung eines neuen Tabelleneintrags in der relationalen Datenbank. Die Bewertung der Suchanfragen unter der Berücksichtigung des umgesetzten Zugriffkonzepts hat gezeigt, dass Graphdatenbanken bei ausgeprägten und stark vernetzten Datenmengen bedeutend besser skalieren als die relationale Datenbank. Je ausgeprägter der Vernetzungsgrad der Daten, desto mehr wird die JOIN-Problematik der relationalen Datenbank verdeutlicht.
2016

Herrera Timoteo

Development of an augmented reality supported positioning system for radiotherapy

Master

Master
2016

Toller Maximilian

Automated Season Length Detection in Time Series i

Bakk

Bakk
The in-depth analysis of time series has been a central topic of research in the last years. Many of the present methods for finding periodic patterns and features require the use to input the time series’ season length. Today, there exist a few algorithms for automated season length approximation, yet many of them rely on simplifications such as data discretization. This thesis aims to develop an algorithm for season length detection that is more reliable than existing methods. The process developed in this thesis estimates a time series’ season length by interpolating, filtering and detrending the data and then analyzing the distances between zeros in the directly corresponding autocorrelation function. This method was tested against the only comparable open source algorithm and outperformed it by passing 94 out of 125 tests, while the existing algorithm only passed 62 tests. The results do not necessarily suggest a superiority of the new autocorrelation based method, but rather a supremacy of the new implementation. Further related studies might assess and compare the value of the theoretical concept.
2016

Ivantstits Matthias

Quantitative & qualitative Market-Analysis i

Bakk

Bakk
The buzzword big data is ubiquitous and has much impact on our everyday live and many businesses. Since the outset of the financial market, it is the aim to find some explanatory factors which contribute to the development of stock prices, therefore big data is a chance to do so. Gathering a vast amount of data concerning the financial market, filtering and analysing it, is of course tightly tied to predicting future stock prices. A lot of work has already been done with noticeable outcomes in this field of research. However, the question was raised, whether it is possible to build a tool with a large quantity of companies and news indexed and a natural language processing tool suitable for everyday applications. The sentiment analysis tool that was utilised in the development of this implementation is sensium.io. To achieve this goal two main modules were built. The first is responsible for constructing a filtered company index and for gathering detailed information about them, for example news, balance sheet figures and stock prices. The second is accountable for preprocessing the collected data and analysing them. This includes filtering unwanted news, translating them, calculating the text polarity and predicting the price development based on these facts. Utilising all these modules, the optimal period for buying and selling shares was found to be three days. This means buying some shares on the day of the news publication and selling them three days later. Pursuant to this analysis expected return is 0.07 percent a day, which might not seem much, however this would result in an annualised performance of 30.18 percent. This idea can also be outlaid in the contrary direction, telling the user when to sell his shares. Which could help an investor to find the ideal time to sell his company shares.
2016

Bassa Kevin

Validation of Information: On-The-Fly Data Set Generation for Single Fact Validation i

Master

Master
Information validation is the process of determining whether a certain piece of information is true or false. Existing research in this area focuses on specific domains, but neglects cross-domain relations. This work will attempt to fill this gap and examine how various domains deal with the validation of information, providing a big picture across multiple domains. Therefore, we study how research areas, application domains and their definition of related terms in the field of information validation are related to each other, and show that there is no uniform use of the key terms. In addition we give an overview of existing fact finding approaches, with a focus on the data sets used for evaluation. We show that even baseline methods already achieve very good results, and that more sophisticated methods often improve the results only when they are tailored to specific data sets. Finally, we present the first step towards a new dynamic approach for information validation, which will generate a data set for existing fact finding methods on the fly by utilizing web search engines and information extraction tools. We show that with some limitations, it is possible to use existing fact finding methods to validate facts without a preexisting data set. We generate four different data sets with this approach, and use them to compare seven existing fact finding methods to each other. We discover that the performance of the fact validation process is strongly dependent on the type of fact that has to be validated as well as on the quality of the used information extraction tool.
2016

Suschnigg Josef

Mobile Unterstützung zur Reflexion der Übungspraxis bei Musikstudierenden i

Bakk

Bakk
Es wird eine mobile Anwendung entwickelt, die Musikstudierende dabei unterstützt reflexiv ein Instrument zu lernen. Der Anwender soll in der Lage sein seinen Übungserfolg über Selbstbeobachtung festzustellen, um in weiterer Folge Übungsstrategien zu finden, die die Übungspraxis optimieren soll. Kurzfristig stellt die Anwendung dem Benutzer für verschiedene Handlungsphasen einer Übungseinheit (preaktional, aktional und postaktional) Benutzeroberflächen zur Verfügung. Mit Hilfe von Leitfragen, oder vom Anwender formulierten Fragen, wird das Üben organisiert, strukturiert bzw. selbstreflektiert und evaluiert. Im Optimalfall kann der Anwender seinen Lernprozess auch auf Basis von Tonaufnahmen mitverfolgen. Langfristig können alle Benutzereingaben wieder abgerufen werden. Diese werden journalartig dargestellt und können zur Selbstreflexion oder auch gemeinsam mit einer Lehrperson ausgewertet werden.

2016

Fraz Koini Josef

Study on Health Trackers i

Bakk

Bakk
The rising distribution of compact devices with numerous sensors in the last decade has led to an increasing popularity of tracking fitness and health data and storing those data sets in apps and cloud environments for further evaluation. However, this massive collection of data is becoming more and more interesting for companies to reduce costs and increase productivity. All this possibly leads to problematic impacts on people’s privacy in the future. Hence, the main research question of this bachelor’s thesis is: “To what extent are people aware of the processing and pro- tection of their personal health data concerning the utilisation of various health tracking solutions?” This thesis investigates the historical development of personal fitness and health tracking, gives an overview of current options for users and presents potential problems and possible solutions regarding the use of health track- ing technology. Furthermore, it outlines the societal impact and legal issues. The results of a conducted online survey concerning the distribution and usage of health tracking solutions as well as the participants’ views on privacy concerning data sharing with service and insurance providers, ad- vertisers and employers are presented. Given those results, the necessity and importance of data protection according to the fierce opposition of the participants to various data sharing scenarios is expressed.
2016

Steinbauer Florian

German Sentiment Analysis on Facebook Posts i

Bakk

Bakk
Social media monitoring has become an important means for business analytics and trend detection, comparing companies with each other or keeping a healthy customer relationship. While English sentiment analysis is very closely researched, not much work has been done on German data analysis. In this work we will (i) annotate ~700 posts from 15 corporate Facebook pages, (ii) evaluate existing approaches capable of processing German data against the annotated data set and (iii) due to the insufficient results train a two-step hierarchical classifier capable of predicting posts with an accuracy of 70%. The first binary classifier decides whether the post is opinionated. If the outcome is not neutral, the second classifier predicts the polarity of the document. Further we will apply the algorithm in two application scenarios where German Facebook posts, in particular the fashion trade chain Peek&Cloppenburg and the Austrian railway operators OeBB and Westbahn will be analyzed.
2016

Hirv Jaanika

Digital Transformation: Learning Practices and Organisational Change in a Regional VET Centre

Master

Master
2015

Höffernig Martin

Semantic Multimedia Metadata Fusion

Dipl-alt

Dipl Ing
2015

Perndorfer Markus

Soziale Interaktionen mittels Mobile Sensing erkennen   i

Master

Master
With this thesis we try to determine the feasibility of detecting face-to-face social interactions based on standard smartphone sensors like Bluetooth, Global Positioning System (GPS) data, microphone or magnetic field sen- sor. We try to detect the number of social interactions by leveraging Mobile Sens- ing on modern smartphones. Mobile Sensing is the use of smartphones as ubiquitous sensing devices to collect data. Our focus lies on the standard smartphone sensors provided by the Android Software Development Kit (SDK) as opposed to previous work which mostly leverages only audio sig- nal processing or Bluetooth data. To mine data and collect ground truth data, we write an Android 2 app that collects sensor data using the Funf Open Sensing Framework[1] and addi- tionally allows the user to label their social interaction as they take place. With the app we perform two user studies over the course of three days with three participants each. We collect the data and add additional meta-data for every user during an interview. This meta-data consists of semantic labels for location data and the distinction of social interactions into private and business social interactions. We collected a total of 16M data points for the first group and 35M data points for the second group. Using the collected data and the ground truth labels collected by our partici- pants, we then explore how time of day, audio data, calendar appointments, magnetic field values, Bluetooth data and location data interacts with the number of social interactions of a person. We perform this exploration by creating various visualization for the data points and use time correlation to determine if they influence the social interaction behavior. We find that only calendar appointments provide some correlation with the social interactions and could be used in a detection algorithm to boost the accuracy of the result. The other data points show no correlation during our exploratory evaluation of the collected data. We also find that visualizing the interactions in the form of a heatmap on a map is a visualization that most participants find very interesting. Our participants also made clear that la- beling all social interactions over the course of a day is a very tedious task. We recommend that further research has to include audio signal process- ing and a carefully designed study setup. This design has to include what data needs to be sampled at what frequency and accuracy and must provide further assistance to the user for labeling the data. We release the data mining app and the code used to analyze the data as open source under the MIT License.  
2015

Tobitsch Markus

Projektfortscrhittstracking durch Informationsmanagement

Bakk

Bakk
2015

Daum Martin

Lokalisierung von verlorenen Gegenständen durch Dead Reckoning von Fußgängern auf Smartphones. i

Master

Master
Many people face the problem of misplaced personal items in their daily routine, especially when they are in a hurry, and often waste a lot of time searching these items. There are different gadgets and applications available on the market, which are trying to help people find lost items. Most often, help is given by creating an infrastructure that can locate lost items. This thesis presents a novel approach for finding lost items, namely by helping people re-trace their movements throughout the day. Movements are logged by indoor localization based on mobile phone sensing. An external infrastructure is not needed. The application is based on a step based pedestrian dead reckoning system, which is developed to collect real-time localization data. This data is used to draw a live visualization of the whole trace the user has covered, from where the user can retrieve the position of the lost personal items, after they were tagged using simple speech commands. The results from the field experiment, that was performed with twelve participants of different age and gender, showed that the application could successfully visualize the covered route of the pedestrians and reveal the position of the placed items.  
2015

Höffernig Martin

Formalisierung der Semantic Constraints von MPEG-7 Profilen   i

Master

Master
The amount of multimedia content being created is growing tremendously. In addition, the number of applications for processing, consuming, and sharing multimedia content is growing. Being able to create and process metadata describing this content is an important prerequisite to ensure a correct workflow of applications. The MPEG-7 standard enables the description of different types of multimedia content by creating standardized metadata descriptions. When using MPEG-7 practically, two major drawbacks are identified, namely complexity and fuzziness. Complexity is mainly based on the comprehensiveness of MPEG-7, while fuzziness is a result of the syntax variability. The notion of MPEG-7 profiles were introduced in order to address and possibly solve these issues. A profile defines the usage and semantics of MPEG-7 tailored to a particular application domain. Thus usage instructions and explanations, denoted as semantic constraints, can be expressed as English prose. However, this textual explanations leave space for potential misinterpretations since they have no formal grounding. While checking the conformance of an MPEG-7 profile description is possible on a syntactical level, the semantic constraints currently cannot be checked in an automated way. Being unable to handle the semantic constraints, inconsistent MPEG-7 profile descriptions can be created or processed leading to potential interoperability issues. Thus an approach for formalizing the semantic constraints of MPEG-7 profiles using ontologies and logical rules is presented in this thesis. Ontologies are used to model the characteristics of the different profiles with respect to the semantic constraints, while validation rules detect and flag violations of these constraints. In similar manner, profile-independent temporal semantic constraints are also formalized. The presented approach is the basis for a semantic validation service for MPEG-7 profile descriptions, called VAMP. VAMP verifies the conformance of a given MPEG-7 profile description with a selected MPEG-7 profile specification in terms of syntax and semantics. Three different profiles are integrated in VAMP. The temporal semantic constraints are also considered. As a proof of concept, VAMP is implemented as a web application for human users and as a RESTful web service for software agents.  
2015

Parekodi Sathvik

A RESTful Web-based Expert Recommender Framework

Master

Master
2015

Perez Alberto

English Wiktionary Parser & Lemmatizer i

Master

Master

“Wiktionary”, is a free dictionary which is part of Wikmedia Foundation. This webpage contains translations, etymologies, synonyms and pronunciations of words in multiple languages in that case we just focus on English.

A syntactic analyser (parser) turns the entry text in other structures, which will make easier the analysis and capture of nest entrance.

2015

Eberhard Lukas

Predicting Trading Interactions in Trading, Online and Location-Based Social Networks

Master

Master
2015

Greussing Lukas

The Social Question & Answer Tool: A prototype of a Help Seeking Tool within the European project of Learning Layers

Bakk

Bakk
2015

Moesslang Dominik

KnowBrain: A Social Repository for Sharing Knowledge and Managing Learning Artifacts

Bakk

Bakk
2015

Steinkellner Christof

Empirische Analyse von sozialen Netwerken von Informatikern i

Master

Master
Unter Wissenschaftlern ist Twitter ein sehr beliebtes soziales Netzwerk. Dort diskutieren sie verschiedenste Themen und werben für neue Ideen oder präsentieren Ergebnisse ihrer aktuellen Forschungsarbeit. Die in dieser Arbeit durchgeführten Experimente beruhen auf einem Twitter-Datensatz welcher aus den Tweets von Informatikern, deren Forschungsbereiche bekannt sind, besteht. Die vorliegende Diplomarbeit kann grob in vier Teile unterteilt werden: Zunächst wird beschrieben, wie der Twitter-Datensatz erstellt wurde. Danach werden diverse Statistiken zu diesem Datensatz präsentiert. Beispielsweise wurden die meisten Tweets während der Arbeitszeit erstellt und die Nutzer sind unterschiedlich stark aktiv. Aus den Follower-Beziehungen der Nutzer wurde ein Netzwerk erstellt, welches nachweislich small world Eigenschaften hat. Darüber hinaus sind in diesem Netzwerk auch die verschiedenen Forschungsbereiche sichtbar. Der dritte Teil dieser Arbeit ist der Untersuchung der Hashtagbenutzung gewidmet. Dabei zeigte sich, dass die meisten Hashtags nur selten benutzt werden. Über den gesamten Beobachtungszeitraum betrachtet ändert sich die Verwendung von Hashtags kaum, jedoch gibt es viele kurzfristige Schwankungen. Da die Forschungsbereiche der Nutzer bekannt sind, können auch die Bereiche der Hashtags bestimmt werden. Dadurch können die Hashtags dann in fachspezifische und generelle Hashtags unterteilt werden. Die Analyse der Weitergabe von Hashtags über das Twitter-Netzwerk wird im vierten Teil mittels sogenannter Informationsflussbäume betrachtet. Aufgrund dieser Informationsflussbäume kann gemessen werden wie gut ein Nutzer Informationen verbreitet und erzeugt. Dabei wurde auch die Hypothese bestätigt, dass diese Eigenschaften von der Anzahl der Tweets und Retweets und der Stellung im sozialen Netzwerk abhängen. Jedoch ist dieser Zusammenhang nur in Einzelfällen stark ausgeprägt.  
2015

Steinkogler Michael

Verbesserung von Query Suggestions für seltene Queries auf facettierten Dokumenten. i

Master

Master
The goal of this thesis is to improve query suggestions for rare queries on faceted documents. While there has been extensive work on query suggestions for single facet documents there is only little known about how to provide query suggestions in the context of faceted documents. The constraint to provide suggestions also for uncommon or even previously unseen queries (so-called rare queries) increases the difficulty of the problem as the commonly used technique of mining query logs can not be easily applied.

In this thesis it was further assumed that the user of the information retrieval system always searches for one specific document - leading to uniformly distributed queries. Under these constraints it was tried to exploit the structure of the faceted documents to provide helpful query suggestions. In addition to theoretical exploration of such improvements a custom datastructure was developed to efficiently provide interactive query suggestions. Evaluation of the developed query suggestion algorithms was done on multiple document collections by comparing them to a baseline algorithm that reduces faceted documents to single facet documents. Results are promising as the final version of the new query suggestion algorithm consistently outperformed the baseline.

Motivation for and potential application of this work can be found in call centers for customer support. For call center employees it is crucial to quickly locate relevant customer information - information that is available in structured form (and can thus easily be transformed into faceted documents).

2014

Prinz Martin

Mobile Sensordata to Support Stroke Rehabilitation

Bakk

Bakk
2014

Esmaeili Hossein

Evaluation of Big Data Solutions i

Bakk

Bakk
die herkömmlichen Datenbanklösungen wie RDBMS wurden zu der Zeit entworfen, in der das heutige Wachstum der Daten nicht vorstellbar war. Während dieses Wachstum besonders in den letzten Jahren geschah, versuchten Unternehmen ihre Datenbanklösungen der neuen Anforderung anzupassen. Die Tatsache ist aber, dass die klassischen Datenbanksysteme wie RDBMS für Skalierung nicht geeignet sind. Neue Technologien mussten geschaffen werden, um mit diesem Problem leichte umgehen zu können und das ist genau das Thema dieser Arbeit. Die neuen Technologien, die zum Bearbeiten von Big Data entworfen sing gehören meistens zu der Hauptkategorie NoSQL. Diese Arbeit diskutiert die Herausforderungen vom Umgang mit großen Datenmengen und versucht, eine Grenze klarzustellen, mit der z.B. eine Firma wissen kann, ob sie für ihre Anwendungen eine NoSQL-Technologie braucht oder würde auch ein RDBMS reichen. Diese Arbeit diskutiert auch das geeignete Datenmodel das für verschiede NoSQL Technologien. Am Ende der Arbeit gibt es einen praktischen Teil, wo drei Kandidaten  von verschiedenen NoSQL-Kategorien gegeneinander evaluiert werden. 
2014

Kaiser Christian

A User Interaction Concept for an Informational Cockpit in Virtual Development

Master

Master
2014

Bischofter Heimo

Eine Prototypische Umsetzung von Enterprise Search für Engineeringdaten am Virtual Vehicle i

Bakk

Bakk
Eine Vielzahl von Softwareherstellern haben sich mit der Unternehmenssuche beschäftigt, undunterschiedliche Enterprise Search Lösungen mit breitem Funktionsspektrum präsentiert. Um dieEnterprise Search Lösungen schnell und effizient untereinander vergleichen zu können, wurdedie Systemarchitektur der Suchlösungen modelliert und mittels Fundamental Modeling Concepts(FMC) dargestellt. Dies bietet die Möglichkeit sich einen Überblick über die einzelnen Lösungenzu verschaffen, ohne sich mit unzähligen Informationen in Datenblättern und Whitepapers herum-zuschlagen. Das Portfolio der zu vergleichenden Enterprise Search Lösungen erstreckt sich von denMarktführern wie Microsoft und Google, dem marktführendem Unternehmen für Suchtechnologieim Raum Deutschland, Österreich und der Schweiz - IntraFind - bis hin zu den Visionären wieCoevo, Sinequa und Dassault Systems.Aus den durch den Vergleich gewonnenen Informationen wurde der Microsoft SharePoint 2013 fürdie prototypische Umsetzung in einem Systemlabor ausgewählt. Entscheidender Grund dafür wardie Kosten/Nutzen-Frage. Microsoft ist einer der wenigen Anbieter die eine kostenlose Versionfür eine Einstiegs- bzw. Pilotlösung zur Verfügung stellen. Die Enterprise Search Lösung wurdeauf einer virtuellen Maschine installiert, und vor der vollständigen Ausrollung am Virtual VehicleResearch Center von zehn Mitarbeitern aus zwei verschiedenen Arbeitsbereichen (Informationsma-nagement und Engineering-Bereich) auf Nützlichkeit und Qualität der Suchergebnisse getestet. Esgibt kaum Studien wie Suchlösungen im Engineeringbereich eingesetzt werden bzw. wie Engineersmit solchen Suchlösungen umgehen und wie zufrieden sie eigentlich damit sind. Diese Tatsacheführte dazu, dass zur Evaluierung der Pilot-Suchlösung eine Kombination aus Thinking AloudTest und Interview eingesetzt wurde. Mittels Interview wurden Informationen zu den Probandengesammelt, aus welchen geeignete Suchtasks für die Testpersonen abgeleitet wurden, welcheim Rahmen des Thinking Aloud Tests von dem jeweiligen Probanden gelöst werden mussten.Anschließend wurde die Testperson zu Qualität der Suchergebnisse, Sucherlebnis und Nützlichkeitder Unternehmenssuche befragt.Es hat sich gezeigt, dass die Mitarbeiter Schwierigkeiten haben, die geeigneten Keywörter für dieSuche zu definieren. Je mehr sie jedoch über die gesuchte Information Bescheid wussten, destoleichter fiel es den Probanden passende Keywörter zu definieren. Kritisch wurde auch die Relevanzder Suchergebnisse bewertet. Die Probanden waren der Meinung, dass sie beim Suchen dergewünschten Informationen mittels Suchinterface mehr Zeit beanspruchen, als bei ihrer derzeitigenSuchmethodik. Es hat sich herausgestellt, dass Metadaten für die Suche von großer Bedeutung sind.Sie enthalten wichtige Informationen, welche das Suchen von Informationen wesentlich erleichtert.Die Probanden müssen ihren Informationsbedarf auch ohne die Unternehmenssuche decken, daherwurde im Rahmen der Evaluierung die derzeitige Suchstrategie der Probanden behandelt.Basierend auf den Aussagen der Probanden konnten aus der Evaluierung Anforderungen an Enter-prise Search Lösungen abgeleitet und Informationen gesammelt werden. Diese Anforderungenund Informationen liefern für die IT-Abteilung wichtiges Feedback, welches bei der Ausrollungdes Pilotprojektes unterstützen soll. 
2014

Perez Ramon Álvaro

Master

Master
2014

García Hortelano Álvaro

Master

Master
2014

Prinz Martin

Mobile Sensordata to Support Stroke Rehabilitatio

Bakk

Bakk
2014

Frey Matthias

Bakk

Bakk
2014

Wertner Alfred

Stress prediction for knowledge workers based on PC activity and noise level i

Master

Master
Knowledge workers are exposed to many influences which have the potential to interrupt work. The impact of these influences on individual’s, not only knowledge workers, often cause detrimental effects on physical health and well-being. Twelve knowledge workers took part as participants of the experiment conducted for this thesis. The focus of the experiment was to analyse if sound level and computer interactions of knowledge workers can predict their self reported stress levels. A software system was developed using sensors on knowledge worker’s mobile and desktop devices. Records of PC activity contain information about foreground windows and computer idle times. Foreground window records include the timestamp when a window received focus, the duration the window was held in the foreground, the window title and the unique number identifying the window. Computer idle time records contain information about the timestamp when idle time began and the duration. Computer idle time was recorded only after a minimum idle interval of one minute. Sound levels were recorded using an smartphone’s microphone (Android). The average sound pressure level from the audio samples was computed over an one minute timeframe. Once initialized with an anonymous participant code, the sensors record PC activity and sound level and upload the records enriched with the code to a remote service. The service uses a key value based database system with the code as key and the collection of records as value. The service stores the records for each knowledge worker over a period of ten days. After this period, the preprocessing component of the system splits the records of PC activity and sound level into working days and computes measures approximating worktime fragmentation and noise. Foreground window records were used to compute the average time a window was held in the foreground and the average time an application was held in the foreground. Applications are sets of foreground window records which share the same window title. Computer idle time records were used to compute the number of idle times between one and five minutes and the period of those idle times which lasted more than twenty. From the sound pressure levels the average level and the period of all levels which exceeded 60 decibels were computed. The figures were computed with the scope of an participant’s working day for five different temporal resolutions. Additionally, the stress levels are computed from midday and evening scales. Participants recorded stress levels two times a working day and entered them manually in the system. The first self report was made close to lunch break and the second at the end of an day at work. Since participants forgot to enter self assessed stress levels, the number of working days containing data of all types ranges between eight and ten. As a result, the preprocessing component stores the measures and stress levels used by the stress predicition analysis component. The correlation of the measures with the self reported stress levels showed that a prediction of those stress levels is possible. The state of well-being (mood, calm) increased the higher the number of idle times between one and five minutes in combination with an sound pressure level not exceeding 60 decibels.
2014

Keller Stephan

Praktische Anwendungen von BCI unter Android – Tic Tac Toe

Bakk

Bakk
2013

Pocivalnik David

Visualisieren von Tweets aus wissenschaftlichen Konferenzen mittels Clustering i

Master

Master
In letzter Zeit wurde das Potenzial von Twitter für forschungsrelevante Anwendungen vermehrt wahrgenommen. Dies führt unter anderem zur Nutzung von Twitter im Zuge wissenschaftlicher Konferenzen. Daraus kann geschlossen werden, dass entsprechende Communities während wissenschaftlichen Konferenzen interessante Informationen zur Verfügung stellen. Jedoch ist es fast unmöglich alle Tweets, die während einer Konferenz veröffentlicht werden, zu lesen oder überhaupt erst interessante Informationen aus Tweets manuell zu extrahieren. So wurden während der WWW2012 Konferenz beispielsweise 6901 Tweets, mit dem der Konferenz designierten Hash-Tag #www2012, veröffentlicht. Diese Arbeit beschreibt die Implementierung und Evaluierung eines Systems welches Tweets, die im Kontext einer wissenschaftlichen Konferenz veröffentlicht wurden, clustert. Die resultierenden Cluster wurden visualisiert, um sie für den Menschen verständlicher zu machen. Die Evaluierung des Systems anhand der Tweets, die während der WWW2012 veröffentlicht wurden, verdeutlicht, dass sowohl Themen als auch organisatorische Events extrahiert werden können. Darüber hinaus zeigen die Ergebnisse die Notwendigkeit weitere Clustering-Techniken zu evaluieren und zusätzliche Techniken zu implementieren, um Beziehungen zwischen den Clustern herzustellen.  
2012

Seifert Christin

Visually enhanced Integration of Domain Knowledge in Automatic Learning Processes i

PhD/ Dissertation

PhD
Klassifikation als Teilgebiet des überwachten Lernens ist ein wichtiges Gebiet des Data Minings und der Wissenserschließung. Normalerweise werden Klassifikatoren von ExpertInnen auf dem Gebiet des Maschinellen Lernens erstellt. Daraus folgt aber auch, dass die EndanwenderInnen im Allgemeinen nicht wissen, wie und warum der Klassifikator welche Entscheidungen trifft. Dieses fehlende Verständnis führt wiederum zu fehlendem Vertrauen in die Algorithmen. Außerdem ist es nicht möglich, wertvolles Domänenwissen in die Algorithmen zu integrieren, wenn man die AnwenderInnen aus dem Erstellungs-und Adaptionssprozess von Klassifikatoren ausschließt. In dieser Arbeit wird das Konzept von visuell unterst ̈tzter Klassifikation beschrieben. Es wird untersucht, ob eine st stärkere Integration von EndanwenderInnen in den Data Mining Prozess mit Hilfe von interaktiven Visualisierungen die Erstellung, das Verstehen, die Beurteilung und die Adaption von Klassifikatoren verbessern kann. Dafür werden mehrere Visualisierungen, die unabhängig vom spezifischen Klassifikator angewendet werden können, entworfen und implementiert. Weiterhin wird das Konzept des Visuellen Aktiven Lernens als Erweiterung des Aktiven Lernens im Data Mining eingeführt. In Experimenten werden diese Visualisierungen und das Visuelle Aktive Lernen hinsichtlich ihrer Verwendbarkeit für das Verstehen, die Beurteilung und die Adaption von Klassifikatoren evaluiert. In Experimenten konnte Folgendes gezeigt werden: Erstens, die entwickelten Visualisierungen können AnwenderInnen das Verstehen und Beurteilen von Klassifikationsmodellen ermöglichen. Zweitens, eine Visualisierung für einen speziellen Textklassifikator erlaubt AnwenderInnen Zugriff auf das interne Klassifikationsmodell. Drittens, eine Kombination aus Datenvisualisierungung und Klassifikatorvisualisierung ermöglicht DomänenexpertInnen, Klassifikatoren neu zu erstellen. Viertens, Visuelles Aktives Lernen liefert bessere Ergebnisse als klassisches Aktives Lernen in klassifikatorunabhängigen Fällen. Fünftens, eine Darstellung von automatisch extrahierten Schlüsselphrasen aus Texten ermöglicht ein schnelles und akkurates Annotieren von Textdokumenten und damit schnelles und akkurates Generieren von Trainingsdaten für die Textklassifikattion. Es kann geschlussfolgert werden, dass die Kombination aus Klassifikation und Visualisierung, d.h. visuell unterstützte Klassifikation, ein sinnvoller Ansatz ist. Von einer engeren Einbindung von DomänenexpertInnen in Klassifikationsanwendungen profitieren sowohl die Algorithmen, als auch die AnwenderInnen.  
2012

Seitlinger Paul

Kognitionspsychologische Aspekte von Collaborative Tagging

PhD/ Dissertation

PhD
2012

Mutlu Belgin

Visualisierung heterogener Datensätze in strukturierten Informationsressourcen i

Master

Master
Das Konzept des Semantic Web sieht vor, Informationen anhand ihrer inhaltlichen Zusammenhänge strukturiert anzubieten, wodurch sie mit Hilfe der ihnen zugewiesenen Schlagwörter auffindbar gemacht werden können. Der Zugriff auf diese Daten funktioniert mit Hilfe der so genannten SPARQL-Suchanfragen (Queries), indem gezielt angegeben wird, welche Daten aus dieser großen Menge extrahiert werden sollen. Nach dem Erhalt können diese Daten weiterverarbeitet und unter anderem für eine benutzerfreundliche Darstellung visualisiert werden. Die Visualisierung der semantischen Daten hat mittlerweile eine sehr große Bedeutung im Bereich des Wissensmanagements und ist auch das Thema dieser Masterarbeit.Es wurde im Bereich der Visualisierung heterogener Daten schon einiges realisiert, dennoch wurde dabei auf das Thema der Wiederverwendung wenig eingegangen. Das Ziel dieser Arbeit ist einen generischen Ansatz zur visuellen Repräsentation der heterogenen Daten anzubieten. Die Idee der generischen Lösung basiert dabei auf dem Konzept der systematischen Wiederverwendung, nämlich der Softwareproduktlinien.Das für diesen Zweck entwickelte Framework unterstützt eine Reihe von interaktiven Diagrammen. Der Benutzer kann auf diesem Framework für eine SPARQL-Query eine Visualisierung durchführen und sie anschließen speichern. Um die gespeicherten Diagramme wieder zu verwenden kann das Framework anhand einer Query kontaktiert und das fertige Diagramm clientseitig angezeigt werden. Das Framework wurde so konzipiert, dass der Client ohne großen Aufwand ein Diagramm erstellen und in der Rolle des Entwicklers sogar das Framework um neue Diagramme erweitern kann, die dann als Visualisierungsvorlage angeboten werden.Die am Ende durchgeführte quantitative Evaluierung hat gezeigt, dass für dieses Framework vorgenommene Ansatz verglichen mit der traditionelle Methode zur Visualisierung effizienter ist.
2012

Bachmann Georg

Visual Approach of Utilizing Mobile Sensor Data i

Master

Master
Betrachtet man die Entwicklung von mobilen Geräten der letzten Jahre, sieht man, dass Smartphones und Tablets immer mehr an Bedeutung gewinnen. Alleine in Österreich machen Smartphones bereits rund ein Drittel aller Mobiltelefone aus. Diese Geräte bringen aber nicht nur von Generation zu Generation schnellere Prozessoren, leistungsstärkere Grafikkarten und mehr Speicher, sondern auch immer mehr Sensoren die mittels APIs auslesbar sind. Das bietet Wissenschaftlern die Daten über das menschliche Verhalten (Bewegungen, Kommunikation, tägliche Abläufe, etc.) im echten Leben aufzeichnen wollen, eine sehr einfache Möglichkeit Benutzerdaten von einer möglichst breiten Zielgruppe zu erhalten. Nachdem diese Sensoren aber nun alle nur erdenklichen Informationen gesammelt haben, stellt sich die Frage nach einer passenden Visualisierung all dieser Zahlen. Diese Masterarbeit beschäftigt sich mit genau dieser Visualisierung von mobilen Sensordaten direkt auf mobilen Endgeräten. In einem ersten Schritt wird eine genaue Analyse der Aufgabenstellung durchgeführt und auf die zu visualisierenden Sensordaten, die vorherrschenden Limitierungen von mobilen Geräten hinsichtlich von Hardware-Resourcen sowie auf die speziellen User-Interaktions Paradigmen auf mobilen Geräten eingegangen. Weiters werden in dieser Arbeit grundsätzliche Visualisierungen vorgestellt, die es ermöglichen sehr viele verschiedene Arten von Daten effizient darzustellen. Nach einer genaueren Beleuchtung und einem Vergleich von ähnlichen Arbeiten, beschreibt der Hauptteil dieser Masterarbeit die Umsetzung eines Visualisierungs-Frameworks, dass eine performante und interaktive Darstellung von mobilen Sensordaten direkt am Smartphone bzw. Tablet erlaubt. Dieses Visualisierungs-Framework wurde mit einem Sensing-Framework zu einem voll funktionsfähigen Prototypen namens iPeeper kombiniert, der Sensordaten aufzeichnet, darstellt, und über mehrere Geräte synchronisiert.  
2012

Hollerit Bernd

Detecting Commercial Intent in Twitter

Bakk

Bakk
2012

Laufer Paul

A general, web-based Information Extraction System using GATE and the Stanford Parser

Bakk

Bakk
2012

Kralowetz Michael R.

Extraction and Evaluation of Facts from Tweets i

Bakk

Bakk
Das Ziel dieser Arbeit ist das Extrahieren, Evaluieren und Speichern von Informationen aus tweets, wodurch eine Schnittstelle zwischen dem World Wide Web und dem semantischen Web modelliert wird. Unter der Verwendung des microblogging- und sozialen Netzwerkdienstes Twitter, wird ein Datensatz von tweets generiert. Dieser wird auf so genannte, von uns definierten, facts untersucht. Diese Filterung wird mit Hilfe von regular expressions (regex) durchgeführt. Die so gefundenen facts werden mit spezifischer Metainformation versehen und in einer Datenbank abgespeichert. Dies ermöglicht Maschinen die Daten intelligent zu durchsuchen und logische Verknüpfungen zwischen den Daten herzustellen. Durch die Verwendung der Programmiersprache Java ist die Applikation systemunabhängig. Die Arbeit liefert einfache Verständnisserklärungen zum semantischen Web, regex und Twitter, welche für die Applikation notwendig sind. Weiters werden das Konzept, verwendete Methoden, auftretende Probleme und gewonnene Resultate diskutiert.
2012

Halb Wolfgang

Creating, Interrelating and Consuming Linked Data on the Web i

PhD/ Dissertation

PhD
 Das World Wide Web hat das Kommunikationsverhalten von Menschen sowie den Austausch von Informationen grundlegend verändert. Eine ständig wachsende Menge an digitalen Inhalten wird produziert und am Web verfügbar gemacht. Die Ideen des Semantic Webs und des Linking Open Data (LOD) Projekts tragen dazu bei, um den Zugriff auf Informationen am Web effizient zu ermöglichen. Durch derartige Ansätze wird es möglich, dass automatisierte Anwendungen Menschen bei deren Informationsbedürfnissen und täglichen Aufgaben unterstützen. Im Fokus dieser Dissertation stehen Herangehensweisen, um die Generierung und Nutzung von Linked Data zu optimieren. Die Forschungsarbeiten wurden in drei Themenbereiche gegliedert, welche besonders zur Optimierung von Linked Data beitragen: das Erstellen von vernetzbaren Daten, das Vernetzen von Linked Data und das Konsumieren von Linked Data. Zwei Hauptanwendungsfälle begleiten die Arbeit. Der erste Anwendungsfall "riese" befindet sich im Bereich öffentlicher Daten und stellt EuroStat Statistiken als Linked Data zur Verfügung. Der zweite Anwendungsfall "Link2WoD" adressiert die Medienindustrie und wurde entwickelt, um Online-Redakteure zu unterstützen. Der Demonstrator kann jedoch auch allgemein als Werkzeug für die Anreicherung von unstrukturierten Daten mit Linked Data eingesetzt werden. In der Arbeit werden Möglichkeiten für das Erstellen von vernetzbaren Daten aus strukturierten Daten, welche meist als relationale Daten vorliegen, gezeigt. Motiviert durch einen unserer Anwendungsfälle wird das Statistical Core Vocabulary (SCOVO) vorgestellt, welches der Repräsentation von statistischen Daten als Linked Data dient. Es erfolgt auch eine kurze Darstellung von Herangehensweisen, um vernetzbare Daten aus unstrukturierten Datenquellen zu extrahieren. In Bezug auf das Vernetzen von Linked Data werden sowohl benutzerbasierte wie auch automatische Methoden vorgestellt. Mit dem "User Contributed Interlinking" (UCI) haben wir eine auf Prinzipien von Wikis basierende Herangehensweise präsentiert, welche es Benutzern ermöglicht, einfach Links zu Datenbeständen hinzuzufügen. Darüber hinaus werden weitere Anwendungsbeispiele dieser Methodik gezeigt sowie automatisierte Ansätze, welche auf speziellen Spezifikationen und konzeptuellen Beziehungen basieren. Für das Konsumieren von Linked Data werden allgemeine Ansätze diskutiert, um die Daten sowohl für Menschen als auch für eine maschinelle Verarbeitung nutzbar zu machen. Dies erfolgt auch anhand einer Darstellung unserer Anwendungsfälle und Demonstratoren in den Anwendungsgebieten von öffentlichen Daten und in der Medienindustrie. Schließlich werden allgemeine Trends und Ideen für zukünftige Arbeiten präsentiert, um das volle Potenzial des Webs auszuschöpfen.  
2012

Körner Christian

Aspects of User Motivation in Social Tagging Systems i

PhD/ Dissertation

PhD
Tagging bezeichnet das Annotieren von digitalen Ressourcen mit Schlagworten - so genannten "Tags" - mit dem Zweck Information besser zu organisieren, leichter wiederfindbar zu machen und deren gemeinsame Nutzung zu ermöglichen. Gegenwärtig existiert im Web eine große Anzahl von Applikationen die es Benutzern erlauben Informationen zu annotieren. Diese Systeme werden soziale Taggingsysteme genannt. Delicious beispielsweise erlaubt Benutzern ihre Lesezeichen mit Hilfe von Tags zu organisieren. In Flickr können Benutzer Bilder verschlagworten und YouTube ermöglicht die Vergabe von Tags um Videos innerhalb des Systems leichter auffindbar zu machen. Obwohl diese Systeme in den letzten Jahren zunehmend in den Fokus der Forschung gerückt sind, ist noch immer wenig über die Verwendung von Tags innerhalb dieser Plattformen und die damit einhergehenden Absichten der Benutzer bekannt. In weiterer Folge gibt es auch keine Studien darüber wie sich die Motivation von Benutzern und das daraus resultierende Verhalten in den Eigenschaften eines solchen Systems widerspiegeln. Die vorliegende Arbeit führt die Unterscheidung zweier neuer Arten von Taggingmotivation ein - Beschreibung und Kategorisierung. Bisher verfügbare Arbeiten, die sich mit der Analyse von Motivation in sozialen Taggingsystemen beschäftigen, basieren entweder auf der Einschätzung von Experten oder der Auswertung von Fragebögen. Bis heute existiert keine automatisierte Untersuchung von Taggingmotivation in diesen Systemen. Diese Dissertation stellt eine quantitative Analyse von Benutzermotivation vor, bei der statistische Eigenschaften des Tagvokabulars eines Benutzers untersucht werden. Für die Unterscheidung der zwei Arten von Taggingmotivation werden eine Reihe von Methoden eingeführt und sowohl qualitativ als auch quantitativ evaluiert. Als Resultat dieser Untersuchungen wird die Messung von Taggingmotivation mithilfe einfacher statistischer Größen ermöglicht. In zusätzlichen Experimenten wird analysiert, wie sich Daten der zwei Benutzergruppen unterschiedlich auf verschiedene Methoden der Wissenserschließung in Taggingsystemen auswirken. Besonderes Augenmerk wird hierbei auf die automatische Klassifikation sowie das Erfassen von Semantik gelegt. Die Resultate der Experimente zeigen, dass Kategorisierer besser für soziale Klassifikationszwecke geeignet sind, während Beschreiber besser zu der in Taggingsystemen auftretenden Semantik beitragen. Diese Ergebnisse zeigen einen Zusammenhang zwischen der Verwendung dieser Systeme und der in ihnen vorkommenden Semantik. Dies lässt darauf schließen, dass sich das Verhalten von Benutzern auf die Struktur dieser Systeme auswirkt - Information die besonders für Designer und Architekten dieser Plattformen von Bedeutung ist. Der wissenschaftliche Beitrag der vorliegenden Arbeit liegt in der Einführung und Unterscheidung zweier Arten von Taggingmotivation und der damit verbundenen Methoden um zwischen ihnen zu differenzieren. Mithilfe einer Auswertung auf mehreren Taggingdatensätzen wird gezeigt, dass Taggingmotivation sowohl innerhalb einzelner als auch zwischen unterschiedlichen Plattformen variiert. Des Weiteren wird der Einfluss der einzelnen Taggingmotivationsgruppen auf Verfahren der Wissenserschließung analysiert. Diese Arbeit ist relevant für Wissenschafter und Systemdesigner die an Benutzermotivation in sozialen Taggingsystemen und den daraus resultierenden Auswirkungen interessiert sind.  
2012

Kern Roman

Efficent Data Structures for Knowledge Relationship Discovery i

PhD/ Dissertation

PhD
Das Ziel einer Knowledge Discovery Applikationen ist es, aus großen Datenmengen maschinell Information und Muster zu extrahieren. Dabei folgen die meisten Applikationen den gleichen Aufbau. Daten werden eingelesen und transformiert und dadurch in eine Form gebracht, die es maschinellen Methoden erlaubt diese auszuwerten, typischerweise organisiert in sogenannten Instanzen und Features. Hier kommt oft das Vector Space Modell zum Einsatz, in dem die Daten in einer Matrix angeordnet werden. Diese Arbeit beschreibt einen Ansatz, der diese limitierte Daten-Repräsentation in einer Reihe von Aspekten erweitert, um die Information innerhalb eines Daten-Satzes zu extrahieren, im Speziellen jene Information, die in der Beziehungen zwischen Features latent vorhanden ist. Eine zwei-dimensionale Matrix kann in einen bi-partiten Graphen transformiert werden. Diese Daten-Struktur kann dann erweitert werden zu einer n-partiten Graph-Struktur, in der Knoten die Features innerhalb des Daten-Satzes repräsentieren. Zusätzliche Flexibilität kann gewonnen werden, indem die Knoten erweitert werden, um zusätzliche Information aufzunehmen, beispielsweise um externe Quellen anzubinden. Typischerweise geht eine allgemeinere, flexiblere Daten-Struktur mit höheren Laufzeit-Anforderungen einher, die oft einen praktischen Einsatz unmöglich macht. Der vorgestellte Ansatz erreicht dieses hohe Maß an Flexibilität, ohne allerdings ein Laufzeitverhalten aufzuweisen, das durch die theoretische Obergrenze der Laufzeitkomplexität vorgegeben ist. Um die praktischen Nutzen des Ansatzes zu demonstrieren, werden eine Reihe von Knowledge Discovery Applikationen vorgestellt. Diese Applikationen unterscheiden sich in dem Ausmaß an benötigter Flexibilität und Größe der verwendeten Datensätze. Um die allgemeine Nützlichkeit des Ansatzes zu unterstreichen, unterscheiden sich die vorgestellten Applikationen auch hinsichtlich ihrer Domäne. Diese sind Social Web, Information Retrieval und Natural Language Processing. Startend mit einem Recommender System, das eine einfache Daten-Repräsentation verwendet, steigert sich die Flexibilität bis zu einer komplexen Applikation aus dem Bereich der Sprach-Technologien. Hier werden statistische, semantische und strukturelle Informationen ausgewertet um mehrdeutige Wörter mittels eines unüberwachten Lernverfahrens aufzulösen.  
2012

Christl Conny

Wissenstransfer am Arbeitsplatz

PhD/ Dissertation

PhD
2012

Kappaun Karl

SPARQL-Query Wizard i

Master

Master
Das Internet entwickelt sich von einer Sammlung miteinander verknüpfter Dokumente hin zu einem interaktiven Medium, in dem der Begriff der „Bedeutung“ mit der vermehrten Veröffentlichung von strukturierten, untereinander verlinkten und für Maschinen verständ- lichen Daten eine große Rolle spielt. Im Kontext dieser Arbeit wird die Entwicklung eines „Semantic Web“ und der damit verwandten Technologien, wie das „Resource Description Framework“ (RDF) oder die Abfragesprache SPARQL erläutert, und ein Wizard zur automatisierten Generierung von Abfragen an Repositories der „Linked Open Data Cloud“ entwickelt. Mit diesem SPARQL-Wizard soll es für einen User auf möglichst einfache Art und Weise möglich sein, die Vorteile des Semantic Web bei der Informationsbeschaffung zu nutzen.
2011

Presenhuber Martin

Plagiarism Analysis & Misuse Detection

Bakk

Bakk
2011

Sommerauer Bettina

Entwicklung eines semantische Mediawikis für die Lehre

Bakk

Bakk
2011

Wagner Mario

RFID-driven Information Delivery with RSS-Feeds

Bakk

Bakk
2011

Baumgartner Philip

MicroConf – An Extension for Microblogging at Conferences

Bakk

Bakk
2011

Latif Atif

Discovery, Triplification and Consumption of Pertinent Resources from Linked Open Data i

PhD/ Dissertation

PhD
Linked Data bietet einen Rahmen für die Erstellung, Veröffentlichung und Weitergabe von Informationen durch den Einsatz semantischer Technologien. Die Linking Open Data Initiative spielt durch die Veröffentlichung und Vernetzung verschiedenster Datenquellen im Internet eine wichtige Rolle bei der Realisierung des Semantic Web auf globaler Ebene. Der Zugriff auf eine riesige Menge an Linked Data eröffnet spannende Möglichkeiten für die nächste Generation Web-basierter Anwendungen. Es gibt jedoch noch immer viel zu wenige Anwendungsfälle, die das volle Potential von Linked Data nutzen. Dies liegt hauptsächlich an einigen offenen Fragestellungen im Zusammenhang mit der Verwertung und der Veröffentlichung von Linked Data sowie mit Applikationen, die auf Linked Data aufbauen, sowohl aus Sicht der Entwickler als auch der Anwender.Diese Dissertation soll die Kernthemen der Verwendung von Linked Data adressieren (z. B. Suchen und Abfragen, vereinfachte Benutzeroberflächen, Identity Management und Disambiguierung) sowie die Veröffentlichung von Linked Data erleichtern. Es werden konzeptionelle Modelle präsentiert, die dabei helfen können, das Linked Data Ökosystem besser zu verstehen. Darüber hinaus wird ein innovativer Ansatz vorgestellt, um durch den intelligenten Einsatz semantischer Technologien eine einfach zu bedienende Anwendung für normale Web-Nutzer zu entwickeln. Diese Anwendung kann durch den Einsatz von Linked Data relevante Informationen automatisch erfassen, verarbeiten und präsentieren und dabei  komplexe semantische Mechanismen und Abfragestrukturen verbergen. Insgesamt leistet diese Arbeit Beiträge in fünf Bereichen:Erstens identifiziert diese Arbeit die Notwendigkeit von konzeptionellen Konstrukten, um Linked Data  besser zu verstehen, und stellt die Linked Data Wertschöpfungskette vor. Ferner werden mögliche Problembereiche aufgezeigt; einer davon der Mangel an benutzerfreundlichen Schnittstellen für die Nutzung von Linked Data Ressourcen. Zweitens wird eine Technik zum Auffinden relevanter URIs aus unterschiedlichen Datensätzen von Linked Data entwickelt und implementiert, um tiefere Einblicke zu gewinnen und die Suchmechanismen für verknüpfte Daten zu vereinfachen. Drittens wird eine benutzerfreundliche Schnittstelle für die Erkundung von Linked Data namens CAF-SIAL (Concept Aggregation Framework for Structuring Information Aspects of Linked Open Data) vorgestellt. Dieses Framework ist in der Lage, Informationen in einer benutzerfreundlichen Umgebung zu strukturieren und darzustellen. Die Anwender müssen dabei nicht mehr lernen, wie Linked Data Konstrukte abgefragt und durchforstet werden. Die Ergebnisse der Evaluierung zeigen, dass dieses vollautomatische System die Nutzer bei der Exploration von Linked Data Ressourcen unterstützt.Viertens wurde ein HTML-Archiv eines digitalen Journals RDFiziert und automatisch mit externen Linked Data Ressourcen verknüpft. Anschließend wurde es der Linked Data Community öffentlich zur Verfügung gestellt. Fünftens wurde, um den Mehrwert der Linked Data Cloud zu demonstrieren, CAF-SIAL in zwei Anwendungsfällen eingesetzt: In einer digitalen Zeitschrift (Journal of Universal Computer Science) wurden Autoren mit ihren Profilen verknüpft, die von CAF-SIAL basierend auf Linked Data erstellt wurden, um die Nutzer der Zeitschrift dabei zu unterstützen, zusätzliche Informationen für die Zusammenarbeit zu finden. In einem zweiten Anwendungsfall wurden potentielle Experten von einem Expertise Mining System in einem hyperbolischen Baum visualisiert. Diese Experten wurden dann mit ihren Profilen in CAF-SIAL verknüpft, was sich als sehr nützlich für die Verwalter der Zeitschrift bei der Identifizierung und Zuordnung von Rezensenten in einer Peer-Review-Umgebung erwies.
2011

Juffinger Andreas

Focused Crawling in the Context of Digital Libraries i

Dipl-alt

Dipl Ing
Das automatische Auffinden von Dokumenten in digitalen Bibliotheken und dem World Wide Web gewinnt Aufgrund der riesigen Datenmengen zunehmend an Bedeutung. Focused Crawling hat zum Ziel nur themenrelevante Dokumente abzufragen und wird deshalb hauptsächlich im Bereich von themenspezifischen Suchmaschinen eingesetzt. Crawler werden auch dazu verwendet um das World Wide Web nach Daten von individuellem Interesse abzusuchen. Im Umfeld von digitalen Bibliotheken kommt Focused Crawling beim Erzeugen von Dokumenten Sammlungen und zur Verwaltung dieser zum Einsatz. Focused Crawling, und damit auch diese Arbeit, gliedert sich in zwei Teilbereiche, einem Web Mining Teil und einen Strategie-Planungs Teil. Der Web Mining Teil behandelt dabei auftretende Probleme im Bereich von Skalierung und Performanz. Das in dieser Arbeit vorgestellte KFetch WebMiner System, ein erweiterbares und flexibles Crawling System, bietet Lösungen fuer die wichtigsten Probleme im Bereich von Web Mining an. Der zweite Teil der Arbeit befasst sich mit Information Retrieval und Maschinellem Lernen im Bereich von Focused Crawling. Verschiedene Crawling Algorithmen werden hier miteinander verglichen und der Einfluss von "Whitelist" und "Blacklists" wird untersucht. Es hat sich herausgestellt, dass die Verwendung von "Whitelists" zu einer Verbesserung führen kann. Des Weiteren wird ein Crawling Algorithmus vorgestellt, der auf Reinforcement Learning mit Funktions Approximation und Vorwissen basiert.
2011

Jobstmann Wilhelm

Entwicklung einer Toolbar zur kollaborativen Qualitätsbewertung und Qualitätssteigerung in MediaWiki i

Bakk

Bakk
Ein MediaWiki ist eine Social Web Applikation, welche es einer Gruppe von Personen einfach ermöglicht Informationen kollaborativ zusammenzutragen, Text zu erstellen und aktuell zu halten. Die wichtigsten Funktionen eines MediaWikis sind, das Erstellen und Bearbeiten von Artikeln, das Verlinken der Artikeln um eine Navigation zwischen den Artikeln zu ermöglichen und das Zusammenfassen der Artikeln in Kategorien ([Barrett, 2009]). Unter gewissen Umständen ist es notwendig die Qualität eines Artikels in einem MediaWiki einzuschätzen bzw. die Qualität eines Artikels zu steigern. Nach [Wang & Strong, 1996] hat schlechte Qualität von Daten einen erheblichen sozialen und wirtschaftlichen Einfluss. Im Rahmen dieser Arbeit wurde wissenschaftliche Literatur, die sich mit der Qualität von Artikeln und Daten beschäftigt, analysiert und zusammengefasst. Aus dem Ergebnis dieser Analyse und in Zusammenarbeit mit einem Unternehmen wurden Features formuliert, die dazu führen, dass die Qualität von MediaWiki Artikeln eingeschätzt werden kann und des Weiteren den Benutzern eines Mediawikis dabei unterstützen die Qualität von Artikeln zu steigern. Nachdem Features gefunden wurden, wurde ein Prototyp von einer Toolbar mit diesen Features in Adobe Flex entwickelt, die als Erweiterung in ein MediaWiki eingebunden werden kann.
2011

Salbrechter Florian

Rule-based test data extraction for training machine learning algorithms

Bakk

Bakk
2011

Bürbaumer Claus

Erfolgsfaktoren virtueller Communities

Bakk

Bakk
2011

Kompacher Georg

Identifikation von relevanten Konzepten in einem Ontologie-basierten Kontext-Modell i

Master

Master
Die Handhabung einer riesigen Menge an stetig steigender persönlicher Daten wird immer schwieriger. Durch unauffällige Überwachung des Benutzers kann der derzeitige Benutzerkontext erfasst werden und dem Wissensarbeiter dadurch bessere Unterstützung ermöglicht werden. Das Ziel dieser Masterarbeit ist es, für eine aktuelle Aufgabe relevante Entitäten in einem Benutzer-Interaktions-Kontext-Modell zu ermitteln. Ein Aktivierungsausbreitungsansatz wird auf die Graphenstruktur eines Benutzer-Interaktions-Kontext-Modells angewandt um, basierend auf dem derzeitigen Benutzerkontext, relevante Aufgaben des selben und eines anderen Benutzers zu finden. Das Benutzer-Interaktions-Kontext-Modell, die entstandene Ontologie and die automatischen Populationsmechanismen wurden von Andreas Rath als Teil seiner Forschungstätigkeit verwirklicht. Die Ziele dieser Masterarbeit sind (a) die Identifikation von relevanten Aufgaben in einem Benutzer-Interaktions-Kontext-Modell, (b) die Ermittlung von Konzepten und Eigenschaften der Benutzer-Interaktions-Kontext-Ontologie für den Aktivierungsausbreitungsansatz, (c) die Evaluierung der erforderlichen Anzahl an Iterationen sowie (d) die Evaluierung einer gute Ergebnisse liefernden Kombination von Aktivierungsabbau, Schwellwert und Relationsgewichtung für den Aktivierungsausbreitungsansatz und (e) die Visualisierung des Aktivierungsausbreitungsgraphen basierend auf dem Benutzer-Interaktions-Kontext-Graphen.  
2011

Beham Günter

User Model Serivces for Adaptive Work-integrated Learning i

Master

Master
Die zentrale Herausforderung für die Entwicklung von Software für arbeitsintegriertes Lernen (work-integrated learning, WIL) ist es, Lerninhalte bereitzustellen, die an die situativen Gegebenheiten und das Vorwissen der NutzerInnen angepasst sind (adaptive Systeme). Um Adaptivität zu realisieren ist ein Benutzermodell (User Model) erforderlich, das kontinuierlich an den Lernfortschritt angepasst wird. Im Gegensatz zum Schul- und Universitätskontext existieren kaum adaptive Systeme zur Unterstützung von WIL. Ziel meiner Masterarbeit war es, ein WIL User Model, WIL User Model Services und eine Software-Architektur zur Unterstützung von WIL zu entwickeln. Das WIL System sollte sich an die Arbeitsaufgabe und das Vorwissen der BenutzerInnen anpassen, reale Arbeitsdokumente als Lerninhalte benützen und in die Arbeitsumgebung der Benutzer integriert sein. Anforderungen für das System wurden einerseits aus der Theorie zu WIL und andererseits aus existierenden Use Cases abgeleitet. Die Anforderungsanalyse ergab, dass drei Arten von Funktionalität zentral für die Unterstützung von WIL erscheinen: Non-invasive Wissensdiagnose, Empfehlungen von Inhalten und Empfehlungen von ExpertInnen. In meiner Mas- terarbeit wurden diese Funktionalitäten über verschiedene Arten von User Model Services konzeptualisiert (Logging, Production, Inference und Control Services), die gemeinsam die WIL User Model Services (WIL UMS) bilden. Die WIL UMS wur- den prototypisch im adaptiven WIL System APOSDLE implementiert. APOSDLE’s Benutzermodell wird über Log Daten (“Knowledge Indicating Events”) automatisch aktualisiert. Ausgehend vom Benutzermodell empfiehlt APOSDLE reale Arbeitsdo- kumente und ExpertInnen. APOSDLE und die WIL UMS wurden als intelligente Lösung zur Unterstützung von WIL in vier Unternehmen installiert, und sind in die Arbeitsumgebung der BenutzerInnen integriert.  
2010

Grahsl Hans-Peter

Pragmatic Analysis of Tagging Motivation in Social Tagging Systems i

Master

Master
Kooperative Verschlagwortungssyteme erlauben es Anwendern, unterschiedliche Arten von Web-Ressourcen (URLs, Fotos, Publikationen etc.) mittels eines frei wählbaren und offenen Vokabulars, sogenannten "Tags" zu annotieren. Während die Forschung zu Beginn primär auf die Analyse der Struktur und der Dynamik von kooperativen Verschlagwortungssystemen fokusiert war, kam es kürzlich zur Untersuchung von Motivationsstrukturen, die der Verschlagwortung zu Grunde liegen. Die vorliegende Masterarbeit zielt auf ein tieferes Verständnis hinsichtlich der Verschlagwortungscharakteristiken von zwei grundverschiedenen Typen von Motivation ab - Kategorisierung versus Beschreibung. Sogenannte "Kategorisierer" verwenden Tags primär zum Aufbau und zur Pflege einer hilfreichen Navigationsstruktur ihrer Ressourcen. Dazu etablieren sie ein persönliches Vokabular an Tags, das dazu neigt, sich schnell zu stabilisieren und eine gleichmäßige Verwendungshäufigkeit der Tags aufweist. "Beschreiber" haben das vordergründige Ziel, Ressourcen äußerst detailliert zu annotieren, um die Suche möglichst gut zu unterstützen. Da sie ihre Tags ad-hoc und beschreibend einsetzen, wächst ihr Tag-Vokabular typischerweise viel stärker und weist zudem eine ungleichmäßige Verteilung auf. Basierend auf 10 Verschlagwortungsdatensätzen, die von 6 unterschiedlichen kooperativen Verschlagwortungssystemen (BibSonomy, CiteULike, Delicious, Flickr, Diigo und Movielens) akquiriert wurden, werden innerhalb dieser Masterarbeit die Verschlagwortungspraktiken von Kategorisierern und Beschreibern systematisch verglichen. Zu diesem Zweck wurde eine pragmatische Analyse durchgeführt, die auf ausgewählten statistischen Metriken basiert, welche unterschiedliche Intuitionen der Verschlagwortungscharakteristiken von Kartegorisierern und Beschreibern widerspiegeln. Die Masterarbeit beinhaltet überdies noch empirische Ergebnisse einer qualitativen Benutzerstudie. Im Zuge einer binären Klassifikationsaufgabe zur Abschätzung, ob Benutzer eher Kategorisierer oder Beschreiber darstellen, wurde untersucht, welche statistischen Metriken dabei am ehesten der menschlichen Beurteilung entsprechen. Die zentralen Ergebnisse dieser Masterarbeit beziehen sich folglich auf eine Reihe ausgewählter Verschlagwortungscharakteristiken, welche vergleichend für Kategorisierer und Beschreiber analysiert wurden. Die Ergebnisse zeigen, dass es mittels einfachen jedoch robusten statistischen Maßen möglich ist, die Unterschiede in der Verschlagwortungspragmatik von Benutzern automatisch zu identifizieren.  
2010

Woehrister Ferdinand

Studying the Effects of Goal-Oriented Search

Bakk

Bakk
2010

Zorn-Pauli Gabriele

Measures for Socio-Technical Congruence

Master

Master
2010

Suzic Bojan

Extraction of temporal units from news corpora

Bakk

Bakk
2010

Pabst Christine

Evaluating a User Model with Implicit Knowledge Diagnosis for an Adaptive Work-Integrated Learning System: A Field Study i

Dipl-alt

Dipl Ing
Die kontinuierliche Wissensdiagnose stellt eine zentrale Herausforderung in adaptiven Lernsystemen, vor allem im Arbeitskontext, dar. Implizite Wissensdiagnose ist eine Möglichkeit, arbeitsgebundenes Wissen auf indirektem Weg über das Benutzerverhalten zu erfassen. Die vorliegende Feldstudie konzentriert sich auf die Validierung einer impliziten Wissensdiagnose (Knowledge Indicating Events, KIE) durch das User Model des arbeits-integrierten adaptiven Lernsystems APOSDLE. Eine Gruppe von sechs Untersuchungs-personen testete in einem Kleinunternehmen das adaptive Lernsystem APOSDLE drei Monate lang in ihrer natürlichen Arbeitsumgebung. Um den Genauigkeitsgrad des User Models messen zu können, wurde das erfasste Wissen im User Model mit externen Kriterien (Selbst- und Fremdeinschätzung) verglichen. Dafür wurden zum Einen die erfassten Arbeitsbereiche und zum Anderen die erfassten Wissenslevels (Expertise, Advanced, Beginner) im User Model berücksichtigt. Die Ergebnisse zeigen einen mäßigen Zusammenhang zwischen den erfassten Arbeitsbereichen des Systems und der Selbst- und Fremdeinschätzung. Zwischen dem erfassten Wissenslevels des Systems und dem selbst- und fremdeingeschätzten Wissenslevels wurde ein eher geringer Zusammenhang beobachtet. Aus der Literatur geht hervor, dass gewöhnlich mäßige Zusammenhänge zwischen User Model und externen Kriterien gefunden wurden. Aufgrund dessen erscheint eine Einbeziehung der KIE vielversprechend für die Wissensdiagnose im arbeits-integrierten Lernsystem APOSDLE. Die zusätzliche ROC Kurven Analyse zeigt eine geringere bis mittlere Sensitivität des Systems. Durch qualitative Inhaltsanalysen von Interviews und einem User Diary wurden folgende Faktoren als beeinflussend für die Validität des User Models festgestellt: Systembenutzung, Exploratives Verhalten eines Benutzers und das KIE-Mapping sowie die KIE-Algorithmen des Systems.
2010

Singer Philipp

Synchronnutzung von Medien

Bakk

Bakk
2010

Lamprecht Daniel

Extracting Human Goals from Weblogs

Bakk

Bakk
2010

Kappaun Karl

Entwicklung eines Video Portals im Web

Bakk

Bakk
2010

Hackhofer Fabian

Entwicklung eines Video Portals im Web

Bakk

Bakk
2010

Heher Stefan

Weblogs als Instrument der Unternehmenskommunikation

Bakk

Bakk
2010

Ast Philipp

Umsetzung einer Web 2.0 Plattform zur Diskussion von strukturierten Inhalten i

Master

Master
Die zunehmende Vernetzung und Öffnung von Unternehmen nach extern bedingt, dass ein großer Teil erfolgsbestimmender Einflussfaktoren außerhalb des eigenen Wirkungsbereichs liegt. Deswegen ist es für erfolgreiches Management wichtiger denn je, Informationen zu den Sichtweisen und Motivationsfaktoren der zentralen, externen Stakeholder so zu erheben, dass sie mit den eigenen Sichtweisen zusammengeführt und weiterverarbeitet werden können. Die Informationen können auf verschiedene Weise eingeholt werden. Gerade das Web 2.0 bietet hier Chancen, unternehmensinterne, strukturierte Informationen mit weiterführenden anzureichern. Diese Anreicherung ist zentraler Betrachtungspunkt der Arbeit und leitet sich aus einem speziellen Anwendungsfall ab, in welchem Erfolgsfaktoren und deren Verbindungen in Unternehmen betrachtet werden. Es wird untersucht, wie durch Diskussion über gängige Web 2.0 Plattformen wie Blogs oder Wikis etc. vorhandene, strukturierte Informationen durch Dritte angereichert werden können. Als Lösungsansatz wird eine Plattform zur Diskussion strukturierter Informationen als Rich Internet Application konzipiert und entwickelt. Diese hat den Charakter einer Suchmaschine und im Gegensatz zu herkömmlichen Diskussionsplattformen, wie z.B. Blogs, erfolgt die Diskussion strukturiert mittels Bewertungen. Im Rahmen einer Pilotnutzung und Expertenbefragung wird diese evaluiert. Die vorliegenge Masterarbeit zeigt, dass mit Rich Internet Applications ein hohes Maß an Usability erreicht werden kann, um strukturierte Informationen in Form von Erfolgsfaktoren erfolgreich mit weiterführenden Informationen durch Dritte anzureichern. Der vorliegenden Masterarbeit liegt ein Auftrag der SUCCON Schachner & Partner KG an die TU Graz zugrunde. Einzelne der im Rahmen dieses Auftrages durchgeführten Konzeptions- und Entwicklungstätigkeiten wurden in Absprache mit der SUCCON zur Behandlung im Rahmen der vorliegenden Masterarbeit freigegeben.  
2010

Kandlhofer Martin

Visualisierung und dynamische Aggregierung von semantischen Graphen i

Master

Master
Der enorme Zuwachs an Daten verschiedensten Typs und unterschiedlichster Herkunft f¨uhrte in den letzten Jahren zu riesigen, teils un¨ubersichtlichen und unstrukturierten Datenmengen. In Anbetracht dessen ist die geeignete Aufbereitung sowie die effiziente Handhabung großer Datenmengen von besonderer Relevanz. Computerunterst¨utzte Visualisierung bzw. speziell die Visualisierung von semantischen Graphstrukturen spielt dabei eine zentrale Rolle. Sowohl die derzeitige Situation als auch die Prognose der zuk¨unftigen Entwicklungen unterstreicht die Aktualit¨at und besondere Bedeutung dieses Themas. Die Masterarbeit beleuchtet zun¨achst den theoretischen Hintergrund ausgew¨ahlter Themenbereiche der Graph- und Information-Visualisation. Die anschließende Evaluierung bereits bestehender Tools, Packages und Frameworks soll Aufschluss ¨uber aktuell verf¨ugbare Softwarel¨osungen zur Visualisierung von Graphen bzw. semantischen Graphstrukturen geben. Im Rahmen des praktischen Teils der Arbeit erfolgt, unter Ber¨ucksichtigung der Ergebnisse der Evaluierung, die Implementierung eines Systems zur Visualisierung und dynamischen Aggregierung von RDF-Graphen.
2010

Hilpold Matthias

Suche und Klassifikation von informationstechnologischen Spezifikationen i

Master

Master
In der heutigen Zeit steigt die Menge an digitalen Daten tagtäglich. Durch das Internet ist ein Teil davon der breiten Masse jederzeit zugänglich. Dabei unterstützen Suchmaschinen den Benutzer aus der scheinbar unerschöpflichen Menge an Daten die gewünschten Informationen herauszufiltern. Ebenso wird es im Intranet eines großen Unternehmens zunehmend schwieriger die Unmengen an Daten adäquat zu organisieren und zu strukturieren, um die gesuchten Informationen schnell zu finden. Für den niederländischen Halbleiterhersteller namens NXP Semiconductors wurde in dieser Arbeit ein Wissensmanagementsystem entwickelt, um den Zugang zu den Spezifikationen des intern entwickelten JCOP-Betriebssystems zu optimieren. Dabei können Spezifikationen vom Benutzer verwaltet, gruppiert und durchsucht werden. Als Grundlage für die Volltextsuche wurde ein bewährtes Information-Retrieval-Verfahren namens Vektorraummodell verwendet. Bei der Indizierung der Spezifikationen wird der Text extrahiert, gefiltert und in einen Index eingebettet. Dadurch wird dem Benutzer ermöglicht den Volltext der Spezifikationen zu durchsuchen. Aufbauend auf die Volltextsuche der Spezifikationen wurde mittels eines maschinellen Lernverfahrens namens K-Nearest-Neighbour die vom Benutzer durchgeführte Gruppierung einzelner Spezifikationen mit den Ergebnissen der K-Nearest-Neighbour-Klassifikation verglichen. Nach mehreren Optimierungsschritten konnte der Recall der Klassifikation auf über 70% und die Accuracy auf über 90% verbessert werden.
2010

Rechberger Andreas

Synchronnutzung von Medien

Master

Master
2010

Resanovic Daniel

Configurable User Profiling Service and Simulation's of User Behaivior in APOSDLE i

Master

Master
In der dynamischen Welt der IT entwickelte sich das Kennzeichen der Adaptivität zu einem der wichtigsten. Um die Adaptivität eines Systems gewährleisten zu können, muss eine entsprechende Infrastruktur sichergestellt sein. Jede Komponente des Systems sollte die Adaptivität zu einem gewissen Grad unterstützen. Wie soll ein System entworfen werden welches einerseits so weit wie möglich abstrahiert ist und ein hohes Maß an Flexibilität bietet, andererseits jedoch die Genauigkeit der Recommendation nicht beeinflusst? Um dieses Problem lösen zu können, haben andere Systeme wie CUMULATE (Benutzermodel Komponente im KnowledgeTree System) so genannte intelligente Inferenz-Agenten vorgestellt. Diese Agenten waren jeweils für eine Eigenschaft des Benutzers zuständig (z.B. Motivation oder Wissen des Benutzers). Die vorliegende Arbeit hat ein ähnliches Konzept verfolgt. Anstatt auf die Eigenschaften des Nutzerprofils wird der Schwerpunkt auf die Umstände/Situationen in denen die Benutzer/Inenn arbeiten gesetzt. Eine Möglichkeit wäre die zu Hilfenahme mehrerer Typen von Inferenz-Agenten (Konfiguration der Benutzerprofil-Komponente), welche für verschiedene Situationen vorkonfiguriert sind. Unterschiedliche Situationen ergeben sich durch neue Systeme, neue Domänen, unterschiedliche Domänenzustände sowie neue Arbeits- und Verhaltensmuster. Sollte die aktuelle Konfiguration aus irgendeinem Grund nicht ausreichend sein, so sollte sie relativ einfach durch eine besser angepasste Konfiguration ausgetauscht werden können. Das Problem dabei ist allerdings, dass nicht bekannt ist, welche Konfiguration für die aktuelle Situation die passendste ist. Es muss demnach ein Überprüfungsmechanismus gefunden werden, welcher sich um diese Problematik kümmert. Dieser Mechanismus wird als Simulation Framework in dieser Masterarbeit vorgestellt. Den praktischen Teil dieser Masterarbeit stellt die Implementation des UPS Prototype 3 und des Simulation Framework dar, und darauf aufbauend die Simulationen von Benutzerverhaltenweisen um die UPS Komponente des APOSDLE-Systems kalibrieren zu können. Die Simulationen zeigen eindeutig, dass jene Algorithmen, welche den sogenannten Aging Faktor berücksichtigen, die besten Ergebnisse erzielen. Mit dieser Erkenntnis wurde die Anzahl der möglichen Konfigurationen im System von ursprünglich sechs auf letztendlich zwei reduziert.  
2010

Gebhard Thomas

Webbasierte Überwachung und Visualisierung von Anlagedaten i

Master

Master
Das 21. Jahrhundert ist durch Energie- und Ressourcenverschwendung gekennzeichnet. Die Auswirkungen dieses Verhaltens können in der ganzen Welt wahrgenommen werden. Der Wandel der Gesellschaft hin zur nachhaltigen Nutzung der zur Verfügung stehenden Ressourcen kann als Anstoß für diese Arbeit gesehen werden. Diese Masterarbeit beschäftigt sich mit der Erstellung eines webbasierten Ansatzes zur Überwachung und Visualisierung von Anlagedaten. Die zu überwachenden Informationen kommen aus dem Bereich der Energietechnik. Einleitend werden die Rahmenbedingungen dieser Arbeit definiert. Des Weiteren werden die funktionalen und nichtfunktionalen Anforderungen erläutert. Aufbauend darauf werden softwareentwicklungstechnische Entscheidungen getroffen, welche bei der Implementierung der RIA-Applikation erforderlich waren. Die Applikation ist Teil eines Gesamtproduktes, welches als verteiltes System realisiert ist. Der agile Softwareentwicklungsprozess Scrum wird als Prozess eingesetzt. Technologisch wurde die RIA- Applikation mit Silverlight realisiert. Der praktische Teil dieser Arbeit veranschaulicht die Realisierung der Visualisierung der Anlagedaten im zeitlichen, domain- und geospezifischen Kontext. Zu Beginn des praktischen Abschnittes wird ein Überblick über die RIA-Applikation gewährt, darauf aufbauend veranschaulichen Code-Ausschnitte zum besseren Verständnis die verschiedenen Visualisierungen. Abschluss dieses Teils bildet die Erklärung des Zusammenspiels der einzelnen Module der RIA-Applikation. Das Resümee über die eingesetzten Technologien und Praktiken bildet den Gesamtabschluss dieser Masterarbeit.  
2010

Bader Markus

Evaluierung web-basierter 3D-Technologien i

Master

Master
Aufgrund der wachsenden Anzahl von Informationen, die ständig zu verarbeiten sind, werden aussagekräftige Visualisierungen von Informationen immer wichtiger. Gleichzeitig finden auch durch die ständig schneller werdende Computerhardware und die größer werdende Bandbreite bei Internetzugängen anspruchsvolle dreidimensionale Inhalte im Web immer stärkere Verbreitung. Die Darstellung von Informationsvisualisierungen im Web ist somit eine gute Möglichkeit, um viele Nutzer zu erreichen. Die Erweiterung von zweidimensionalen Visualisierungen um eine weitere Dimension kann hierbei zur besseren Strukturierung der Informationen genutzt werden. Die dreidimensionale Darstellung von Informationen im Web verlangt aber auch nach entsprechenden Technologien, die diese Aufgabe erfüllen können. Somit werden in dieser Arbeit derzeit verfügbare web-basierte 3D-Formate ermittelt, diese anhand von Kriterien verglichen und es wird auf Grund der hohen Verbreitung Flash für eine prototypische Umsetzung einer Informati-onsvisualisierung ausgewählt. Da es in Flash mehrere 3D-Engines gibt, werden diese einer genaueren Untersuchung unterzogen, um für die Informationsvisualisierung die passende auswählen zu können. Die Arbeit zeigt, dass es mit Flash möglich ist eine Informationsvisualisierung umzusetzen, auch wenn dabei aufgrund der geringen Hardwareunterstützung oft Kompromisse bei der Geschwindigkeit und der ungenauen Tiefenberechnung einzugehen sind.
2010

Stimpfl Martin

Analysis of Sequences of Machine States i

Master

Master
Data Mining ist ein Schlagwort, in das heutzutage viele Erwartungen im Bereich der Informatik gesteckt werden. Das maschinen-unterstützte "Graben" und "Fördern" von komplexen Zusammenhängen in großen Datenbeständen ist auch von Interesse für eine Grazer Softwarefirma, die sich mit Datenanalyse im Bereich der Produktion beschäftigt. Diese Arbeit bearbeitet ein erstes Szenario dem sich die Firma widmen möchte: das Erkennen von Mustern in der Zustandshistorie einer produzierenden Maschine. Außer der Sequenz der Zustände und deren Dauer steht nur wenig Information zur Verfügung, die verwendet werden kann. Die Frage ist daher, ob zwischen den einzelnen Maschinenzuständen signifikante Korrelationen bestehen. Die sequentielle Natur der Daten bedingt zwei unterschiedliche Zugänge der Bearbeitung: zum einen bieten sich klassische Methoden der Klassifikation, zum anderen Methoden des so genannten Sequence- beziehungsweise des Episode-Mining an. Diese Arbeit präsentiert zunächst verschiedene mögliche Ansätze aus beiden Gebieten, um danach eine Methode aufzugreifen und Ergebnisse erster Versuche zu liefern. Diese Versuchen sollen zeigen, dass ein Auffinden von Mustern möglich ist.  
2010

Pammer-Schindler Viktoria

Automatic Support for Ontology Evaluation - Review of Entailed Statements and Assertional Effects for OWL Ontologies i

PhD/ Dissertation

PhD
Die Motivation Wissen formal zu repräsentieren besteht üblicherweise darin es für Maschinen verarbeitbar zu machen. Daher werden Wissensrepräsentationsformalismen sinnvollerweise so gewählt, daß sie gut automatisch verarbeitbar sind. Darunter leidet allerdings häufig die Verständlichkeit der Repräsentation für Menschen. Auf der anderen Seite sind es meistens Menschen, die Wissen formalisieren oder formalisiertes Wissen aktuell halten müssen. Diese Diskrepanz ist die zentrale Motivation der vorliegenden Doktorarbeit, Möglichkeiten zu untersuchen wie die Evaluierung der konzeptionellen Richtigkeit von Ontologien automatisch unterstützt werden kann. Wenn zum Beispiel ein logischer Satz zu einer Ontologie, einem formalen Wissensmodell über Konzepte und Beziehungen zwischen Konzepten, hinzugefügt wird, kann es passieren daß die Ontologie zwar logisch weiterhin widerspruchsfrei ist aber konzeptionell falsch. Als spezieller Formalismus werden im Rahmen dieser Doktorarbeit Beschreibungslogiken betrachtet. Zuerst wurde sowohl analytisch als auch anhand einer Benutzerstudie betrachtet, inwieweit die systematische Begutachtung von Inferenzen den Ontologieevaluierungsprozess unterstützen kann. Als weitere Forschungstätigkeit wurde die Verwendung von konkreten Daten zur Erstellung von Beispielen fur die Bedeutung von logischen Sätzen über Konzepte und Relationen, terminologische und Rollenaxiome, untersucht. Vor der vorliegenden Doktorarbeit wurden in der Literatur den Auswirkungen von terminologischen und Rollenaxiomen auf konkrete Daten kaum Bedeutung geschenkt. Es war also notwendig, zuerst eine formale Definition zu finden die dem Ziel entspricht, Wissen über Daten das neu hinzukommt oder verloren geht auszudrücken. Darauf aufbauend werden die Entscheidbarkeit des Problems gezeigt und ein Entscheidungsalgorithmus beschrieben. Beide Forschungsarbeiten führten zu einer Erweiterung des MoKi, eines wiki-basierten Ontologieeditors, um Funktionalitäten die Ontologieevaluierung unterstützen. MoKi ist somit, nach bestem Wissen der Autorin, zu diesem Zeitpunkt der einzige State-of-the-Art Ontologieeditor der konzeptionelle Ontologieevaluierung unterstützt.
2010

Kohler Philip

Reflection Widget

Bakk

Bakk
2009

Körner Christian

Social-focused Network Analysis of User Goals Extracted from a Large Search Query Log i

Master

Master
Suchmaschinen ermöglichen Benutzern des World Wide Web ihre Informationsbedürfnisse zu formulieren. Jedoch geht während der Formulierung von Suchabfragen oft die ursprüngliche Absicht verloren. Diese Masterarbeit widmet sich diesem Problem mit der Untersuchung einer Konstruktionsmethode von Graphen, die Suchziele aus Suchdatensätzen beinhalten. Während bisherige Arbeiten hauptsächlich die Klassifikation von Suchabfragen in Taxonomien behandeln, werden hier Suchabfragen, die explizite Ziele enthalten, untersucht. Um Beziehungen zwischen Suchzielen ableiten zu können, wird ein neuer Typ von Graphen vorgestellt, der aus Suchdatensätzen erstellt werden kann: Bipartite Ziel-Tag Graphen. Die Arbeit zeigt, wie diese Graphen dazu verwendet werden können, um die Absicht eines Benutzers zu einer von ihm abgesetzten Suchabfrage abzuleiten oder verwandte Ziele eines Ziels zu ermitteln. Einer der wesentlichen Beiträge dieser Arbeit ist eine parametrisierte Methode für die Erstellung der Graphen und die dazugehörigen qualitativen und quantitativen Evaluierungen. Des Weiteren wird SearchGoalNet - ein Netzwerk das 57562 Suchziele von Benutzern enthält - vorgestellt und Anwendungen, die darauf basieren, erläutert.  
2009

Softic Selver

Tracing and Understanding Discussions on the Web i

Dipl-alt

Dipl Ing
Diese Masterarbeit befasst sich mit einer Untersuchung von Methodiken für die Analyse und das Verstehen von Diskussionen, die im Web statt finden. Hauptaugenwerk wird hierbei auf die Erforschung der Meinungen, die sich aus den Inhalten von Webdiskussionen, konkret aus Diskussionsforen, ermitteln lassen, gelegt. Im Rahmen des praktischen Teils wird ein Prototyp für die Analyse und Auswertung der Informationen aus den Foren für die Domäne Marktforschung im Rahmen des nationalen Forschungsprojektes Understanding Advertising erstellt.
2009

Softic Selver

Tracing and Understanding Discussions on the Web i

Dipl-alt

Dipl Ing
Diese Masterarbeit befasst sich mit einer Untersuchung von Methodiken für die Analyse und das Verstehen von Diskussionen, die im Web statt finden. Hauptaugenwerk wird hierbei auf die Erforschung der Meinungen, die sich aus den Inhalten von Webdiskussionen, konkret aus Diskussionsforen, ermitteln lassen, gelegt. Im Rahmen des praktischen Teils wird ein Prototyp für die Analyse und Auswertung der Informationen aus den Foren für die Domäne Marktforschung im Rahmen des nationalen Forschungsprojektes Understanding Advertising erstellt.
2009

Seitlinger Paul

Kognitionspsychologische Aspekte von Collaborative Tagging: Assoziative Aktivierung und Basiskategorien-Effekte bei der gemeinschaftlichen Verschlagwortung von Internetressourcen

Dipl-alt

Dipl Ing
2009

Steinparz Sophie

Programmverhalten nachhaltig nach Drupal portieren -- Unterstützung des Prozess "User generated Content" innerhalb einer bestehenden Community

Bakk

Bakk
2009

Mellacher Daniela

Erfolgsfaktoren virtueller Communities

Bakk

Bakk
2009

Radl Alfred

Reflexionsintegration im arbeitsintegrierten Lernen i

Dipl-alt

Dipl Ing
Diese Arbeit beschäftigt sich mit der Begrifflichkeit der Reflexion und im speziellem mit dem Einsatz eines reflexiven Prozesses im arbeitsintegrierten Lernen. Reflexion als eine Fähigkeit des Wissensarbeiters seinen Entscheidungsfindungsprozess durch das Miteinbeziehen von Erfahrungswissen positiv zu beeinflussen. Als Wissensarbeiter werden vor allem solche Personen verstanden, die auf Basis ihres Fachwissens und ihrer Kreativität Innovationen vorantreibt. Es wird versucht den Prozess der Reflexion unter Zuhilfenahme von einschlägiger Literatur zu zerlegen und die einzelnen Bestandteile herauszuarbeiten. Zudem werden Modelle vorgestellt, die dazu bestimmt sind einen reflexiven Prozess zu beschreiben. Aufbauend auf diese Erkenntnisse werden verschiedene Methoden eingeführt, die einen Reflexionsprozess unterstützen können. Diese Methoden werden auf ihren möglichen Einsatz als Unterstützungsmethoden für Reflexion geprüft. Der Einsatz von Reflexionsmethoden ist jedoch nur ein Teil davon, was in dieser Arbeit unter Reflection Support zu verstehen ist. Das Ziel war es ein möglichst generelles System zu schaffen, welches den arbeitsintegrierten Lernprozess durch Reflexion unterstützt. Diese Beschreibung liefert die Voraussetzungen dafür, dass der Prozess der Reflexion im Umfeld des arbeitsintegrierten Lernens ablaufen kann. Die Ergebnisse, die aus diesem abstrakten Design gewonnen wurden, wurden in letzter Konsequenz dem Zielsystem APOSDLE (Advanced Process- Oriented Self- Directed Learning Environment) zugeführt. Es entstand ein Prototyp, der Reflection-Support im APOSDLE Projekt verwirklicht hat. Die so genannte Trigger Engine hat nicht nur die Aufgabe den Benutzer des APOSDLE Systems mit den richtigen Reflexionstools zu unterstützten, sondern vor allem die Funktion den geeigneten Zeitpunkt dieser Reflexionsmöglichkeiten herauszufinden. Als Ergebnis wurde ein Prototyp geschaffen der als Modul im APOSDLE System eingesetzt werden kann.  
2009

Prettenhofer Peter

Relevanz-Feedback in Information Retrieval Systemen i

Dipl-alt

Dipl Ing
Die vorliegende Arbeit untersucht den Nutzen von konnektionistischen Modellen für das Adaptive Information Retrieval. Adaptives Information Retrieval bezeichnet die Anpassung des Suchprozesses an den individuellen Kontext sowie die individuellen Bedürfnisse des Benutzers. Das Ziel von adaptiven Retrieval-Systemen ist, auf Basis von Benutzer-Feedback zur Güte (d.h. Relevanz) vorheriger Resultate, die Effektivität des Systems zu verbessern. Im Rahmen dieser Diplomarbeit wurde ein Modell für das Adaptive Information Retrieval entwickelt, das die Adaption des Systems in Bezug auf langfristige Benutzerbedürfnisse ermöglicht, indem das Modell auf Ideen und Techniken aus dem Bereich der probabilistischen Indizierung und Retrievals sowie der Neuronalen Netze zurückgreift. Das entwickelte Modell stellt eine Erweiterung des assoziativen Retrieval-Modells von Scheir [2008] dar. Dieses assoziative Modell repräsentiert Assoziationen zwischen Informationsobjekten (d.h. Indexterme und Dokumente) als einen gewichteten Graphen, der auch als Assoziatives Netz bezeichnet wird. Die Verarbeitung von Anfragen in Scheiers Modell ist mittels Aktivierungsausbreitung analog zur Informationsverarbeitung in Neuronalen Netzen realisiert. Das konnektionistische Modell, das im Laufe der Arbeit entwickelt wurde, benutzt den effizienten Backpropagation Algorithmus, um die Struktur des Assoziativen Netzes - basierend auf Relevanz-Feedback - zu modifizieren, mit dem Ziel, dass das Modell in der Lage ist, den intuitiven Begriff der Relevanz besser wiedergeben zu können. In weiterer Folge beschreibt die Arbeit die Referenzimplementierung des Modells im APOSDLE-System und präsentiert die Ergebnisse einer Systemevaluierung basierend auf einer kleinen Testkollektion aus Dokumenten, Anfragen und Relevanzbewertungen. Die Evaluierung zeigt eine signifikante Verbesserung der Effektivität des adaptiven Modells gegenüber dem originalen, assoziativen Modell. Somit schafft das vorgestellte Modell die Grundlage, Relevanz-Feedback in das Retrieval-Modell von Scheir [2008] einfließen zu lassen.  
2009

Gerdenitsch Cornelia

Evaluation des adaptiven Modells in einer arbeitsintegrierten Lernumgebung

Dipl-alt

Dipl Ing
2009

Kohlmayr Anna

Anwendung von Data Mining Techniken in der Handels- und Versicherungsbranche i

PhD/ Dissertation

PhD
Der Fokus dieser Arbeit liegt auf der Anwendung von Data Mining im realen Businesssumfeld. Wir stellen eine breite Palette von Data Mining Methoden und Techniken vor und veranschaulichen diese mit Beispielen aus eigenen praktischen Erfahrungen. Neben einer aktuellen Sichtweise auf das Thema Data Mining, betrachten wir diese Disziplin auch aus vergleichsweise unkonventionellen Perspektiven (z.B. Informationstheorie, Kolmogorow Komplexität, uvm.) und verwenden die neuesten und renommiertesten Quellen der Literatur. Diese Arbeit erkennt den prozessorientierten Charakter von Data Mining an und hebt die Notwendigkeit ihrer engen Integration in den strategisch wichtigen Entscheidungsfindungsprozessen einer Organisation hervor. Wir stellen die bedeutendsten Modelle der Data Mining Prozess-Aufgliederung vor und betrachten die wichtigsten Phasen des Prozesses im Detail. Ebenso berichten wir über unsere Erfahrungen im Aufbau einer Data Mining Gruppe in einem Handelsunternehmen. Zurzeit haben die Wissenschaftler leider kaum Zugang zu interessanten Quellen der realen Geschäftsdaten und arbeiten selten in enger Kooperation mit Spezialisten aus dem Anwendungsumfeld. Im Gegensatz dazu ist diese Dissertation von praktischen Anforderungen an Data Mining im heutigen Businessumfeld geprägt und resultiert aus der Arbeit mit realen Geschäftsdaten. Nach der Analyse der tatsächlichen Geschäftsanforderungen haben wir einen neuartigen universellen and skalierbaren Ansatz zur Modellierung des Kundenverhaltens entwickelt, welcher sowohl in der Versicherungsbranche, als auch im Handelsumfeld erfolgreich umgesetzt werden konnte. Wir schlagen auch einige Anwendungsmöglichkeiten der dargestellten Methode vor. Weiters zeigen wir am Beispiel eines tatsächlich umgesetzten Projekts, wie die Data Mining Techniken dazu verwendet werden können, die direkte Kundenkommunikation im Handelsumfeld zu optimieren, zu personalisieren und zu gestalten. Abschließend analysieren wir die Zukunftsaussichten dieser jungen Wissensdisziplin. Aus eigener Erfahrung mussten wir feststellen, dass Data Mining im Versicherungs- und Handelsumfeld in Österreich leider noch in den Kinderschuhen steckt und einen langen Weg vor sich hat. Wir berichten auch über die bedeutendsten Herausforderungen, die wir im Laufe unserer Data Mining Tätigkeit erlebt haben, und die wichtigsten Erkenntnissen, die wir aus unserer praktischen Arbeit in diesem Umfeld gelernt haben. 
2009

Kober Michael

Bedarfsanalyse eines Web 2.0 Portals für IT-Jobnomaden

Bakk

Bakk
2009

Softic Selver

Tracing and Understanding Discussions on the Web i

Dipl-alt

Dipl Ing
Diese Masterarbeit befasst sich mit einer Untersuchung von Methodiken für die Analyse und das Verstehen von Diskussionen, die im Web statt finden. Hauptaugenwerk wird hierbei auf die Erforschung der Meinungen, die sich aus den Inhalten von Webdiskussionen, konkret aus Diskussionsforen, ermitteln lassen, gelegt. Im Rahmen des praktischen Teils wird ein Prototyp für die Analyse und Auswertung der Informationen aus den Foren für die Domäne Marktforschung im Rahmen des nationalen Forschungsprojektes Understanding Advertising erstellt.
2009

Stocker Alexander

Intraorganisationaler Wissenstransfer mit Wikis und Weblogs: Eine explorative Mehrfachfallstudie i

PhD/ Dissertation

PhD
Mit dem Begriff Web 2.0 wird eine Evolution bezeichnet, welche das Web seit einigen Jahren durchläuft. Kernelement dieses positiven Wandels ist die stetig zunehmende Bedeutung der durch Nutzer freiwillig und selbstorganisiert geteilten Inhalte. Am Web transformieren Nutzer von rein passiven Informationskonsumenten zu äußerst aktiven Informationsproduzenten. Dieser Effekt hat zur Herausbildung sozialer Web-Plattformen wie Wikipedia, Youtube, Facebook oder MySpace beigetragen, welche ihre Geschäftslogik auf nutzergenerierten Inhalten aufbauen. Angespornt durch den Erfolg solcher Web-2.0-Anwendungen in der Informationsteilung wollen auch Unternehmen das Web 2.0 für sich nutzbar machen. In ihrer Idealvorstellung von Corporate Web 2.0 schwebt ihnen vor, Strukturen und Muster des Web 2.0 in die Unternehmenslandschaft zu integrieren. Doch müssen Entscheider im Corporate Web 2.0 das entstehende Spannungsfeld zwischen Selbst- und Fremdorganisation, also Freiwilligkeit contra Hierarchie beherrschbar machen, um die Potentiale von Web 2.0 im Unternehmen vollständig auszuschöpfen. Diese Dissertation erforscht einen differenzierten Anwendungsbereich von Corporate Web 2.0, den intraorganisationalen Wissenstransfer über die beiden speziellen Web 2.0 Anwendungen Wiki und Weblog. Als sozio-technische Systeme weisen Wiki und Weblog besondere Charakteristika auf, welche das Verstehen und das Abschätzen ihrer Wirkung im betrieblichen Umfeld erheblich erschweren. Im Gegensatz dazu finden verantwortliche Wissensmanager wenig akademische qualitätsgesicherte Literatur vor, in welcher die beim Einsatz von Wiki und Weblog im Unternehmen beobachteten Phänomene systematisch empirisch untersucht werden. Als Antwort auf diese Knappheit verfolgt der Dissertant im Rahmen einer explorativen Mehrfachfallstudie die zentrale Forschungsfrage, ob und wie Unternehmen ihre Mitarbeiter dazu bringen, Wissen über Wiki und Weblog zu teilen. Die anwendungsnahe Dissertation legt den Untersuchungsfokus einerseits auf die für intraorganisationalen Wissenstransfer verantwortlichen Experten für Wiki und Weblog, berücksichtigt aber auch die Perspektive der Mitarbeiter als Nutzer dieser aus Sicht einer Wirtschaftsinformatik neuen computergestützten Informationssysteme. Durch die systematische Untersuchung des intraorganisationalen Wissenstransfers mit Wikis und Weblogs leistet diese Dissertation als explorative Forschungsarbeit einen Beitrag zu einem besseren Verständnis von Corporate Web 2.0 in Theorie und Praxis.  
2009

Pölz Benjamin

Schema zur Kategorisierung von Web 2.0 Anwendungen in Unternehmen

Bakk

Bakk
2009

Plaschke Alexander

Authentifizierung in Netzwerken unter Verwendung eines Single Sign-On Systems i

Dipl-alt

Dipl Ing
In der heutigen Zeit werden dem Benutzer eine Vielzahl von Diensten und Anwendungen über das Netzwerk angeboten. Egal ob dem Privatanwender im Internet, oder dem Mitarbeiter in einem Unternehmensportal. In beiden Bereichen muss der Benutzer mit verschiedenen Anwendungen kommunizieren und interagieren. Ein großes Problem stellt dabei die Identifizierung an einen solchen Dienst dar. Jeder der angebotenen Dienste arbeitet mit einem eigenen isolierten Identifikationsmechanismus. Am häufigsten ist der Gebrauch von Benutzername und Passwort in Verwendung.\\ Durch die steigende Anzahl der verwendeten Dienste, steigt auch die Anzahl der Benutzernamen-Passwort Paare für den Benutzer. Um dieser Entwicklung entgegen zu wirken gibt es verschiedene Single Sign-On Lösungen. Ziel hinter einem Single Sign-On System ist die einmalige Authentifizierung an einem System und die Verwendung sämtlicher weiterer Dienste ohne erneute Anmeldung. Dadurch muss der Benutzer nur ein Benutzername-Passwort Paar merken. Dies führt unter anderem zu einer höheren Sicherheit und einer Verbesserung der Usability. \\ Diese Arbeit nimmt sich diesem Thema an und untersucht vorhandene Single Sign-On Lösungsansätze. Durch die Betrachtung der einzelnen Single Sign-On Systeme, wird ein Überblick über den Aufbau und der Funktionsweise gegeben. Auf Basis dieser Recherche werden Entscheidungskriterien bestimmt, welche die einzelnen Lösungsansätze hinsichtlich der Tauglichkeit für eine praktische Umsetzung bewerten.\\ Der daraus resultierende Single Sign-On Lösungsansatz wird in weiterer Folge für die Online Plattform www.bravestone.at der Firma Bravestone Information Technology GmbH konzipiert und umgesetzt.  
2009

Chouhan Pulkit

Findr: Ein Framework Für Webbasierte Suche

Bakk

Bakk
2009

Weitlaner Doris

Usability-Evaluierung von Visualisierungskomponenten zur temporal-thematischen Analyse von Textdokumentsätzen

Bakk

Bakk
2009

Lautischer Marco

Information Gathering durch Microformate

Bakk

Bakk
2008

Niederl Daniel

Vergleich von Internet/DMS/CMS Technologien zur Unterstützung von geschäftsprozessorientiertem Wissensmanagement

Bakk

Bakk
2008

Tiran Stefan Herbert

Ursprung von Inferenzen in Ontologien erkennen und bei Bedarf löschen – Interaktiver Ontologie Fragebogen

Bakk

Bakk
2008

Michaljuk Claudia

Wissensmanagement mit Wikis: Eine Bedarfserhebung in steirischen Unternehmen

Bakk

Bakk
2008

Tiesenhausen Nikolaus

Services for Knowledge Management

Bakk

Bakk
2008

Prettner Mario

Managementreporting mittels Java SOA Framework i

Dipl-alt

Dipl Ing
Für das Management einer Unternehmung ist es mitunter eine Herausforderung, Entscheidungen auf Basis von Kennzahlen bzw. Reports zu treffen. Die enorm steigende Menge an Transaktionsdaten bei gleichzeitiger Vergrößerung des Umfanges an Funktionalitäten der Softwaresysteme und darüber hinaus geforderter Erweiter- und Wiederverwendbarkeit von bestehenden Softwaremodulen oder -bibliotheken, Flexibilität, Skalierbarkeit ... - fordern den Einsatz entsprechender Architekturen und Technologien in solch einem Umfeld. In dieser Arbeit wird das Architekturmuster Service-Oriented Aritecture (SOA) als Ansatz für eine universale Middleware, welche auch die Daten für ein Reportingsystem bereitstellen kann, an exemplarischen Java-basierten Technologien erprobt. Dabei sollen über sämtliche Layer hinweg aktuelle Technologien eingesetzt werden, beispielsweise Hibernate oder JPA für den Persistencelayer, OSGi als modulares SOA Framework und Webservices als Schnittstelle on Top of the Middleware, dessen Dienste ein Reportingframework nutzen kann. Zur Auswahl eines Reportingframeworks für die Verwendung in dieser Komposition werden die Features einiger kommerzieller als auch Opensource Implementierungen gegenübergestellt. Da OSGi ein dynamisches Komponentensystem für die Java Plattform ist und da es von den meisten Opensource (und auch proprietären) Bibliotheken noch keine OSGi konformen Bundles (Releases) gibt, werden ausgewählte Java Bibliotheken prototypenhaft in solche Plug-ins gebundled. Auf Basis dieser Bundles wird ein Prototyp-Service erstellt, wobei auch kurz die Vorteile der Versionseigenschaften von OSGi anhand einer Beispielmigration des Dienstes demonstriert wird. Eine kurze Erläuterung soll die Vorteile des Einsatzes einer solchen (Enterprise) Service-Oriented Architecture basierten Middleware auch im Bereich des Reportings gegenüber einem klassischen datenbankzentrierten Datawarehouse-System darlegen. 
2008

Mavriqi Arian

SOA in e-Government: SOA Methoden für die Integration von e-Government Backoffice Systemen i

Dipl-alt

Dipl Ing
E-Government Anwendungen und Services entwickeln sich ständig weiter. Diese Entwicklung wird durch kontinuierlich steigende Anforderungen und Erwartungen der heutigen Informationsgesellschaft und Innovationen von Informations-und Kommunikationstechnologien (IKT) getrieben. Um e-Government Strategien umsetzen zu können, muss die Verwaltung ihre bisherigen Geschäftsprozesse an die neuen Anforderungen und Möglichkeiten anpassen. Das Ziel von e-Government ist die Verbesserung der Qualität und Effizienz der Verwaltung, um wertvolle, leicht zugängliche, und sichere elektronische Behördendienste für Unternehmen und Bürger anbieten zu können. Die Herausforderung liegt in der Integration von verteilten und technisch unterschiedlichsten Systemen, wobei eine der wichtigsten Anforderungen von e-Government die Integration von bestehenden Services und die Wiederverwendung vorhandener Anwendungen und Backoffice Systemen ist. Diese Masterarbeit stellt eine Lösung des Integrationsproblems vor, die auf Methoden der Service-Oriented Architecture (SOA) basiert. SOA ist ein Paradigma, aus dem konkrete Softwarearchitekturen abgeleitet werden können. In diesem konkreten Fall wird eine SOA-Architektur präsentiert, die Probleme bei der Integration von heterogenen Backoffice Systemen durch den Einsatz von Web Services löst. Entsprechende SOA Design-Kriterien und Richtlinien werden in der vorliegenden Arbeit beschrieben. Im Rahmen des praktischen Teiles dieser Masterarbeit wurden Software Anwendungen und Services implementiert, die als Teil des e-Government Programms in Österreich entwickelt wurden, um die Kooperation zwischen Behörden effizienter zu gestalten.  
2008

Maas Antonia

Validierung von Kompetenz-Performanz-Strukturen innerhalb einer adaptiven und arbeitsintegrierten Lernumgebung

Dipl-alt

Dipl Ing
2008

Kulathuramaiyer Narayanan

Examining E-Learning And Discovering Issues Far More Important i

PhD/ Dissertation

PhD
Bisher wurde E-Learning vorwiegend als ein Kurs Management System angesehen, welches hauptsächlich auf die Bedürfnisse des Lehrbeauftragten fokussiert war. Wir betrachten E-Learning als den Wissenstransfer-Aspekt von Wissensmanagement mit vernetzen Systemen, welche Wissenserzeugung, -organisation und -archivierung fördern. Die revolutionären Entwicklungen des Webs führten zu Kulturformen wie Plagiaten und dem Copy-Paste-Syndrom. Unsere Untersuchungen zeigten, dass momentan verwendete und Techniken beschränkt und ineffektiv mit diesen Angelegenheiten umgehen. Wir erforschen die Einrichtung von Übungsbetreuungs-Mechanismen, wobei sich der gesamte Schwerpunkt auf die Unterstützung des Lernenden verschiebt. Wir schlagen ein E-Learning Ökosystem namens ICARE vor, welches Funktionalität zur Begleitung von studentischen Lernaktivitäten einbettet. Es wurde um die Fähigkeit zur Eingrenzung von Missbräuchen innerhalb des Kontexts von Lernaktivitäten verstärkt. Zum Einsatz kommt das Erstellen von genaueren Profilen von Lernenden, um Einsichten über Lernziele, Absichten und von Studenten ausgearbeitete Aufgaben während des Lernens ans Tageslicht zu befördern. Das vorgeschlagene E-Learning Ökosystem legte die Bedeutung der neuartigen kontextbewussten aufgabenspezifischen Unterstützung offen. Es wurde auch gezeigt, dass diese Fähigkeit nützlich in der Unterstützung von bedarfsorientiertem (just-in-time) Lernen durch Wissensarbeiter ist. Wir demonstrierten 3 Fallstudien, wobei diese Fähigkeit in der Unterstützung von Wissensarbeit appliziert wird. Eine Schlüsselkomponente des Ökosystems ist die Data Mining (DM) Technologie, welche für die Ähnlichkeitserkennung in der Eingabe zu Aufgaben und in der kontextabhängigen Profilerstellung von Lernenden und Wissensarbeitern benutzt wird. Unsere Untersuchungen deckten Gefahren ausgehend von der uneingeschränkten Datenverwertung von globalen DM Giganten, wie z.B. Suchmaschinen, auf. Sie illustrieren weiters das versteckte Potential von Google, welches sich als das führende globale Suchmaschinenunternehmen etabliert hat. Wir beschreiben ein Modell, das die Expansion des Einflusses von Web-Suchen durch das ordnungsgemäße Abdecken und Kontrollieren aller Aspekte unseres Lebens beschreibt. Institutionelle Ansätze werden dann gebraucht, die den Ansturm dieser DM Giganten einschränkt. Solche Bemühungen, zusammen mit technologischen Mitteln, werden in dieser Dissertation beschrieben, um unsere Abhängigkeit von globalem DM zu reduzieren und um das Setzen des Schwerpunkts auf Aufgabenbereiche wie E-Learning zu erleichtern.  
2008

Augustin Andreas

Erfassung semantischer Informationen aus enzyklopädischen Daten i

Master

Master
Der aktuell zu beobachtende, stark steigende Umfang an maschinell zu verarbeitenden Daten macht es notwendig, neue Methoden zur Bewältigung dieser einzusetzen. Neben einer Verbesserung der Suchmöglichkeiten ist es der Wille, die textuellen Inhalte besser zu verstehen und zu nutzen, der als treibende Kraft zu identifizieren ist.Haben im 19. Jahrhundert Enzyklopädien dazu beigetragen, dass Menschen einen einheitlichen Wortschatz zur Kommunikation nutzen konnten, ist im 21. Jahrhundert die Notwendigkeit gegeben, dass sich Maschinen eines universalen Wortschatzes zur Kommunikation bedienen können.Enzyklopädien gelten als umfassendes Abbild des menschlichen Wissens einer Epoche. Der Wunsch dieses Wissen aus den textuellen Quellen zu extrahieren und zur weiteren automatisierten Verarbeitung aufzubereiten, ist zentraler Betrachtungspunkt dieser Arbeit.Dazu werden ausgewählte Methoden des Ontology Learning angewandt, um aus den Enzyklopädietexten Taxonomien und Konzepthierarchien abzuleiten. Die extrahierten Informationen werden evaluiert und unter Verwendung weiterer Verfahren, wie z.B. Onlinevaliderung automatisch verbessert.Die vorliegende Arbeit zeigt, dass unter der Vorraussetzung der geeigneten Methodik, qualitativ hochwertige semantische Informationen aus den enzyklopädischen Daten gewonnen werden können, welche als Grundlage für die Erstellung einer Ontologie verwendet werden.
2008

Potoschnig Thomas

Einfache Ontologie-basierte Annotation

Dipl-alt

Dipl Ing
2008

Hausenblas Michael

Building Scalable and Smart Multimedia Applications on the Semantic Web i

PhD/ Dissertation

PhD
Im Laufe der letzten Jahre wurde das Semantic Web Realität. Obgleich einige praktische Fragen, wie beispielsweise Interoperabilität, schon teilweise behandelt wurden, sind die Themen Skalierbarkeit und Expressivität in Bezug auf die Ausnützung von Multimedia-Metadaten im Semantic Web bislang vernachlässigt worden. Bestehende Web (2.0) Anwendungen, die Millionen von multimedialen Inhalten handhaben, beginnen von Semantic Web Technologien zu profitieren. Die vorliegende Arbeit unterstützt Designentscheidungen beim Bau von multimedialen Semantic Web Applikationen. Dabei wurden, ausgehend von einer umfassenden Analyse praxisnaher Probleme (basierend auf Projekten bei denen der Verfasser dieser Arbeit beteiligt war) drei Bereiche identifiziert: Erstens, Performanz und Skalierbarkeitsfragen auf der Datenzugriffsebene, zweitens, effiziente und effektive Repräsentation von Beschreibungen multimedialer Inhalte, und schließlich der Gebrauch von Multimedia-Metadaten am Semantic Web. Gemein ist den oben genannten Forschungsbereichen die Kompromissfindung in Bezug auf Expressivität vs. Skalierbarkeit. In der Arbeit werden die Erkenntnisse bezüglich skalierbarer und dennoch ausdrucksstarker Semantic Web Applikationen im Multimediabereich im Rahmen einer Reihe realitätsnaher Aufgabenstellungen dargestellt. Schließlich werden zukünftige Entwicklungen (wie interlinking multimedia) diskutiert.
2008

Weilbuchner Michael

Userprofilverwaltung und interaktive Kommunikationsmöglichkeiten in Liferay

Bakk

Bakk
2008

Wunder Stefan

Entwicklung eines Flash Rich Clients und Integration in eine Web 2.0 Plattform

Bakk

Bakk
2008

Eggenberger Georg

Userprofilverwaltung und interaktive Kommunikationsmöglichkeiten in Liferay

Bakk

Bakk
2008

Krnjic Vesna

Usability Überlegungen für Multiple Coordinated Views

Bakk

Bakk
2008

Plaschzug Patrick

Corporate Blogging – Anwendung von Blogs in Unternehmen

Bakk

Bakk
2008

Bader Markus

Entwicklung eines Sequenz-Players zum Abspielen von eLearning-Inhalten

Bakk

Bakk
2008

Dietl Martin

Entwicklung eines Flash Rich Clients und Integration in eine Web 2.0 Plattform

Bakk

Bakk
2007

Rechberger Andreas

Sensoren zur Kontexerkennung

Bakk

Bakk
2006

Dahlmann Sebastian

KnowFlow Report Engine – Ein graphen-basierter Ansatz zur automatischen Auswertung und Darstellung von Wissensprozessen einer Organisation i

Dipl-alt

Dipl Ing
Im globalen Wettbewerb erkennen viele Organisationen die Bedeutung von Wissen als strategischen Erfolgsfaktor an. Ein großes Potenzial für gezielte Wissensmanagementmaßnahmen erschließt sich aus den individuell stattfindenden Wissensprozessen. Die meisten bisherigen Versuche schlugen fehl, die Wissensprozesse auszuwerten und darzustellen, da sie entweder zu komplex, unübersichtlich oder zu wenig Fachinhalte aufwiesen.Das in dieser Arbeit vorgestellte Analyse-Werkzeug KnowFlow Report Engine nimmt sich dieser Herausforderung an. Mit Hilfe von gerichteten und ungerichteten Graphen werden die Wissensprozesse einer Organisation analysiert, ausgewertet und dargestellt. Eine Reihe von geeigneten Filterungen ermöglicht es, die Komplexität flexibel anzupassen.Auf Basis dieser Auswertungen können Analysten in Zukunft gezielt Wissensmanagements-Methoden und -Werkzeuge einsetzen, um die Ressource Wissen für die Organisation als Vorteil zu nutzen.
2006

Köberl Karl

Erfassen von Benutzerkontextinformationen mit AJAX i

Dipl-alt

Dipl Ing
Aufgrund des enormen Informationsaufkommens in den letzten Jahren, ist es für Benutzer schwierig, relevante und interessante Informationen zu finden. Aus diesem Grund werden verstärkt personalisierte Systeme in Intranet System oder Webapplikationen eingesetzt.Um Anwendungen zu personalisieren wird anhand von Informationen über den Benutzer ein Modell generiert. Zur Erstellung eines langfristigen Benutzerprofiles eignet sich implizites Feedback besonders, da es die Interessen des Users widerspiegelt.In dieser Arbeit werden deshalb zuerst Interessensindikatoren genauer untersucht. Aufgrund dieser Ergebnisse wurde eine eigene Taxonomie von auswertbaren impliziten Interessensindikatoren erstellt. Aufbauend auf diese Indikatoren wird ein generisches Benutzermodell erzeugt.In dieser Arbeit wird das ”History-Based-Model“ verwendet. Im praktischen Teil dieser Arbeit wurde eine Webapplikation erstellt, die es ermöglicht implizite Interessensindikatoren zu beobachten und daraus ein Benutzermodell zu erstellen.Da die Anwendung nur mit freien Webtechnologien implementiert werden sollte, wurde AJAX verwendet. Da AJAX eine neue Technologie ist, wurde eine detaillierte Einführung in die Technologie sowie deren Einsatzmöglichkeiten gegeben.
2006

Puntschart Ines

Wissensaustausch über (un)moderierte Diskussionsforen - Konzeption, Anwendung und Evaluierung im Kontext von Lehre an Universitäten i

PhD/ Dissertation

PhD
Ziel der Arbeit ist es zunächst zu untersuchen, wie Instrumente für den Wissensaustausch, speziell Diskussionsforen aber auch Blogs, in der Lehre effizient und effektiv eingesetzt werden können. Für diesen Zweck werden anhand eines Kreislaufes aus Design, Re-Design(s) und Evaluierung über einen Zeitraum von 2 Jahren hinweg drei unterschiedlich konzipierte Case Studies an der Technischen Universität Graz mit rund 450 Studierenden und insgesamt 12 Lehrenden/Studienassistenten durchgeführt. Die Lehrenden haben dabei die Aufgabe den Wissensaustausch mit den Instrumenten für den Wissensaustausch bestmöglich zu unterstützen – diese Rolle wird häufig auch als e-Moderator bezeichnet. Ausgehend von einer umfangreichen Literaturstudie sowie der Analyse gesetzter Aktionen von e-Moderatoren in den Diskussionsforen der ersten Case Study, werden effekt-äquivalente Interventionen abgeleitet, d.h. Interventionen die genau die Effekte generieren, die auch ein e-Moderator durch eine Aktion seinerseits erreicht (z.B. Motivation von Studierenden an der Diskussion mitzuwirken). Die Hauptidee der effekt-äquivalenten Interventionen besteht jedoch darin, dass sie zwar dieselben Effekte generieren, wie eine Aktion eine e-Moderators, allerdings ohne, dass Arbeit für den e-Moderator entsteht. Dass diese Idee tatsächlich greift, wird in einer weiteren Case Study empirisch gezeigt. Eine umfangreiche Matrix, die Aktionen von e-Moderatoren effekt-äquivalenten Interventionen zuordnet, ist ein wesentliches Ergebnis dieser Arbeit. Ergänzt wird dies um Guidelines für den Einsatz von Wikis und Blogs in der Lehre, sodass auch weitere moderne Werkzeuge zum Wissensaustausch in der Arbeit berücksichtigt werden.
2006

Farmer Johannes

AD-HOC - Eine Methodik zur Entwicklung von virtuellen Lern-Arbeitsumgebungen i

PhD/ Dissertation

PhD
Im unternehmerischen Umfeld bedarf es virtueller Lern-Arbeitsumgebungen, die Neulinge und Experten gleichermaßen effizient unterstützen und Lernunterstützungsformen in spezifischen Aufgabenbereichen ad hoc anbieten. Derzeit muss kontextspezifische Lernunterstützung aber aufwendig Maß geschneidert und in Form eines von Grund auf neu entwickelten Systems in die Arbeitsumgebung eingeführt werden.Mit dieser Dissertation wurde zur Lösung dieses Problems ein effizienter Entwicklungsprozess für solche virtuellen Lern-Arbeitsumgebungen - die so genannte AD-HOC Methodik - entwickelt und getestet. Bei der AD-HOC Methodik werden Lernproblemsachverhalte mit Learning Patterns, die, ähnlich den Object Oriented Design Patterns, für verschiedene Lernmuster geeignete Unterstützungsformen beschreiben, adressiert. Die Umsetzung der Lernunterstützungsformen geschieht dann mit "generischen Funktionen". Mit diesen werden die Designanforderungen der Umgebung mit den kommunikations-, kooperations- und informationsbezogenen Werkzeugen vorhandener Systeme in Beziehung gesetzt, um darauf basierend die virtuelle Lern-Arbeits- umgebung umzusetzen. Schließlich wurde die AD-HOC Methodik in drei Fallstudien in unterschiedlichen Bereichen erfolgreich getestet.Somit steht mit dieser Dissertation erstmals eine systematische Methodik zur effizienten und kostengünstigen Entwicklung von virtuellen Lern-Arbeitsumgebungen zur Verfügung.Schlüsselwörter: Wissensmanagement, E-Learning, CSCL, Wissensarbeit, Learning Pattern Katalog, Generische Funktionen, Produktivität, System Design.
2006

Wagner Claudia

Semantische Modellierung des Journal of Computer Science

Bakk

Bakk
2006

Lux Mathias

Metadaten im Kontext Wissenserschließung i

PhD/ Dissertation

PhD
In den Forschungsbereichen Wissenserschließung (Knowledge Discovery) und Wissensmanagement-Systeme (Knowledge Management Systems) ist Metadaten ein sehr breiter Begriff. Andere Begriffe wie Ontologien oder Topic Maps grenzen den Begriff Metadaten ein und definieren so ein spezifischere Forschungsgebiete, die auch außerhalb der Bereiche Wissenserschließung und Wissensmanagement, zum Beispiel im Semantic Web, eine große Bedeutung erlangt haben.Ein Aspekt von Metadaten ist die bessere Interpretierbarkeit im Vergleich zur Betrachtung von unstrukturierten textuellen Daten. Im Fall von semantischen Metadaten wird nur wenig Spielraum gelassen die Bedeutung des Inhalts zu interpretieren. So sind Beschreibungen von Zusammenhängen zwischen Konzepten besser modellierbar und für Algorithmen und Verarbeitungsmethoden wird die Semantik von Daten besser zugänglich gemacht. Damit wird auch die Möglichkeit eröffnet Wissenserschließungsmethoden auf einer höheren abstrakten Ebene der Semantik anzusiedeln. Die Thematik einfacher Metadaten auf Basis von Schlüssel-Wert Paaren (auch Attribute genannt) gilt als hinreichend erforscht, als zukunftsweisend wurden Metadatenstrukturen auf Basis gerichteter Graphen erkannt. Daher konzentriert sich Arbeit speziell auf komplexe Metadatenstrukturen wie semantische Informationen auf Basis von Graphen.
2005

Hackl Elisabeth

Die Wissenslandkarte als Werkzeug zur Unterstützung der Wiederverwendung projektbezogener Informationen in Organisationen. i

Dipl-alt

Dipl Ing
Wissenslandkarten werden in der gängigen Literatur immer wieder als Werkzeuge der Effizienzsteigerung in Unternehmen bezeichnet. Diese These beruht auf der Annahme, dass sie das Finden von Unternehmensinformationen erleichtern und so Doppelspurigkeiten vermeiden.Diese Diplomarbeit geht der Frage auf den Grund, wie die eigen entwickelte Wissenslandkarte des Know-Center konzipiert sein muss, um die Wiederverwendung von projektbezogenen Informationen in neuen Projekten zu unterstützen.Sie umfasst eine theoretische Auseinandersetzung mit den wichtigsten Begriffen dieser Arbeit anhand der gängigen Literatur. Darauf folgt ein praktischer Teil, der die Beschreibung der Entwicklung der Know-Center Wissenslandkarte zum Inhalt hat. Des Weiteren kommt es zu einer Evaluierung der Wissenslandkarte im Hinblick auf die Forschungsfrage.
2005

Strohmaier Markus

B-KIDE: A Framework and a Tool for Business Process Oriented Knowledge Infrastructure Development i

PhD/ Dissertation

PhD
Die Notwendigkeit des effektiven Managements von Wissen wird heute von Unternehmen zunehmend erkannt. Aus diesem Grund wurden neue vielversprechende und mächtige Technologien von Wissenschaft und Wirtschaft entwickelt. Mit der Verfügbarkeit und Weiterentwicklung dieser Innovationen verstärkt sich auch die Bereitschaft von Unternehmen Wissensmanagement-Technologien anzuwenden. Die erfolgreiche Anwendung derartiger Technologien in Unternehmen stellt jedoch eine komplexe, mehrdimensionale Herausforderung und ein aktuelles Forschungsgebiet dar. Die vorliegende Arbeit nimmt sich deshalb diesem Thema an und stellt einen Framework für die Entwicklung von geschäftsprozessunterstützenden, technologischen Wissensinfrastrukturen vor. Während dabei Geschäftsprozesse den Ausgangspunkt für die Anwendung von Wissensmanagement-Technologien bieten, so repräsentieren Wissensinfrastrukturen ein Konzept, dass Wissensmanagement in Organisationen ermöglicht. Der in dieser Arbeit entwickelte B-KIDE Framework bietet Organisationen Unterstützung in der Entwicklung von Wissensinfrastrukturen, welche innovative Wissensmanagementfunktionalitäten beinhalten und sichtbar organisatorische Geschäftsprozesse unterstützen, an. Das entwickelte B-KIDE Tool erleichtert die Anwendung des B-KIDE Frameworks für Entwickler von Wissensinfrastrukturen. Drei durchgeführte, empirische Studien mit Unternehmen unterschiedlichster Branchen bekräftigen die Relevanz und Viabilität der eingeführten Konzepte.
2005

Hofmair Philip

Asset- und Rechtemanagement im Umfeld digitaler Bibliotheken i

Master

Master
Mit der vor allem im digitalen Sektor immer stärker wachsenden Informationsflut geht ein ebenfalls ständig größer werdender Wunsch nach Organisation und Beherrschung dieser Daten einher. Sei es, um allgemeine Informationen, wie sie täglich auf Milliarden von Internetseiten erscheinen, oder um spezielle Informationen, wie sie im schulischen und universitären Bereich auftreten, zu kontrollieren und zu erfassen. Eine gute Möglichkeit, Informationen in einer kontrollierten Art und Weise zu sammeln und aufzubereiten stellen digitale Bibliotheken dar. Wenn der Datenbestand solcher Bibliotheken jedoch über ein gewisses Maß hinauswächst und überdies auch Daten beinhaltet, die vertrauenswürdig zu behandeln sind, ist der Einsatz von Zugriffs-Kontrollsystemen, welche Asset- und Rechtemanagement beinhalten, unumgänglich.In dieser Arbeit wird nun dargestellt, welche Möglichkeiten sich aus heutiger Sicht bieten, ein Digital Rights Management System für den Einsatz im Bereich digitaler Bibliotheken aufzubauen. Beruhend auf der Heterogenität der aktuell existierenden DRM-Lösungen ergibt sich eine Inkompatibilität der einzelnen Standards zueinander. Folgedessen wird ein DRM-System vorgestellt, welches auf Basis von Ontologien diese Inkompatibilitäten weitestgehend zu überbrücken im Stande ist. Die praktische Einsetzbarkeit von DRM in Verbindung mit Information-Retrieval wird letztendlich durch eine prototypisch ausgeführte Implementierung eines digitalen Handapparates gezeigt.
2005

Hofmann Birgit Marie

Online Community Plattformen zur Unterstützung des Wissensaustauschs zwischen Konferenzteilnehmern. Eine Anforderungsanalyse am Beispiel der I-KNOW i

Dipl-alt

Dipl Ing
Online Community Plattformen dienen dazu, die Interaktion zwischen Internetbenutzern, die durch gemeinsame Interessen oder Aufgaben miteinander verbunden sind, zu ermöglichen und zu erleichtern. In der vorliegenden Arbeit werden solche „virtuellen Treffpunkte“ vor dem speziellen Hintergrund von jährlichen Konferenzen erörtert. Der Ausgangspunkt ist die Frage, mit welchen Maßnahmen der Informations- und Wissensaustausch zwischen den Konferenzterminen verbessert werden kann. Das Hauptziel dieser Arbeit ist die Entwicklung eines Konzepts, in dem die Anforderungen der verschiedenen Teilnehmergruppen einer internationalen Tagung analysiert werden. Es besteht die Annahme, dass der Einsatz einer Online Community Plattform für Konferenzen dem Zusammenhalt der Teilnehmer in Gemeinschaften und gleichzeitig der Akquisition neuer Teilnehmer dient.Ein Review aktueller Fachliteratur mündet in der Klärung des Begriffs „Community“, sowie einer Darstellung der Basiswerkzeuge und Erfolgsfaktoren für Online Communities. Acht halbstrukturierte, problemzentrierte Interviews mit Mitarbeitern eines österreichischen Forschungs- und Beratungsunternehmens werden durchgeführt und mit einer qualitativen Inhaltsanalyse ausgewertet. Die Befragten werden aufgrund ihrer Schlüsselrollen in der Organisation der genannten internationalen Tagung ausgewählt. Aus den Interviewergebnissen werden die Ziele der unterschiedlichen Teilnehmergruppen verglichen und nach Priorität geordnet. Danach erfolgt die Ausarbeitung mehrerer Anwendungsfälle („Use-Cases“), um detaillierte Szenarien aufzuzeigen, wie eine Online Plattform die Schlüsselrollen unterstützt.In den Use Cases sind hauptsächlich die funktionalen und technischen Anforderungen für die Online Plattform enthalten. Abschließend werden Potentiale für gemeinsame Aktivitäten in und zwischen den Teilnehmergruppen vor dem Hintergrund des jährlichen Rhythmus der Konferenz identifiziert. Basierend auf diesen Ergebnissen beinhaltet weiterführende Forschung die Wahl einer geeigneten technischen Plattform und die Bewertung eines ersten Prototyps.
2005

Neidhart Thomas

Semiautomatische Erstellung von Wissenslandkarten mittels Knowledge Mining Techniken i

Dipl-alt

Dipl Ing
Durch die Fülle an vorhandener Information steigt das Bedürfnis nach einer geeigneten Strukturierung eben dieser Datenflut, um dem jeweiligen Benutzer/System die Extraktion von Wissen zu erleichtern, oder überhaupt erst zu ermöglichen. Der erste Schritt um vorgegebene Datenbestände zu strukturieren besteht darin, geeignete Konzepte zu finden und zu definieren, nach denen die Dokumente gruppiert werden können. Die Summe der einzelnen Konzepte und die Beziehungen untereinander bilden dann die Struktur (Ontologie, Taxonomie) in die, im nächsten Schritt, alle Dokumente des Datenbestandes eingeordnet werden sollen. Dieser Vorgang ist im Allgemeinen nicht nur mit hohem Zeitaufwand verbunden, sondern führt in der Regel auch zu Problemen bei der automatischen Zuordnung von Dokumenten zu Konzepten.Ziel dieser Arbeit ist es nun bestehende, unstrukturierte Datenbestände mit Hilfe von machine-learning Algorithmen (Clustering) in einem semi-automatischen Prozess als Wissensstrukturkarte abzubilden. Dieser Prozess umfasst die Manipulation der Datenrepräsentation mit der Absicht, relevante Konzepte für weiterführende Aufgaben (z.B. Textklassifikation) zu extrahieren.
2005

Turek Maria

Bewertung von Wissensrisiken. Vergleich von Modellen des Risikomanagements zur Bewertung von Wissensrisiken i

Dipl-alt

Dipl Ing
Um Risikomanagement den heutigen wirtschaftlichen Bedingungen anzupassen und insbesondere wissensintensive Unternehmen bestmöglich zu unterstützen, wird am Grazer Know-Center an einem Framework zur Integration von Wissensrisiken in bestehende Risikomanagementmodelle und -systeme geforscht. Die Bewertung von Wissensrisiken ist ein kritischer Bereich, dessen Erfolg von der Kompatibilität der klassischen Risikobewertungsmodelle mit der praktischen Anwendbarkeit für Wissensrisiken abhängt. Das Ziel der Arbeit ist, eine optimale Methode zur Bewertung von Wissensrisiken zu empfehlen. Diese Methode muss eine geeignete Bewertung von Wissensrisiken ermöglichen und zudem anhand klassischer Risikobewertungsmodelle erfolgen. Um dieses Ziel zu erreichen, ist eine umfassende Literaturaufarbeitung über die vorherrschenden Ansätze notwendig. Die finale Auswahl der Modelle ist geprägt durch die Häufigkeit ihrer Verwendung in Theorie und Praxis. Zusätzlich zur Beschreibung dieser Modelle wird deren Anwendung für Wissensrisiken diskutiert. Im zweiten Teil der Arbeit werden die vorgestellten Modelle klassifiziert und anhand eines selbst definierten Kriterienkatalogs bewertet. Die Ergebnisse dieser Analyse werden anschließend aufbereitet und miteinander verglichen. Zudem wird ein Analyseraster zur Entscheidungsunterstützung bei der Auswahl der Modelle entwickelt. Abschließend wird eine Methode zur Bewertung von Wissensrisiken anhand klassischer Risikobewertungsmodelle empfohlen.
2005

Zorn-Pauli Gabriele

Foko Wiki – semantisches Forschungskooperations-Wiki für die Styria Medien AG

Bakk

Bakk
2005

Härter Leander

Strategien und Tools zur Strukturierung und Verwaltung heterogener Datenbestände i

Dipl-alt

Dipl Ing
Informationen, die aus verschiedenen Quellen stammen und von unterschiedlichen Zielgruppen gelesen werden, sind schwierig zu organisieren. Unterschiedliche Anforderungen müssen berücksichtigt werden, um einen zielgruppengerechten Prozess aufzusetzen.In dieser Master Thesis werden Strategien und Tools beschrieben, die zur Verwaltung heterogener Datenbestände dienen und die Arbeit mit einem System verbessern sollen. Es werden drei unterschiedliche Bereiche betrachtet, die den Zyklus der Informationsverabeitung abbilden. Der Bereich "Publizieren" beschäftigt sich mit dem Prozess, wie ein Dokument in eine Datenbank aufgenommen werden kann. Im Bereich "Suche und Navigation" finden sich Hilfsmittel und Tools, um zu den gewünschten Dokumenten zu gelangen. Der Bereich "Maintenance" schließlich beschreibt Wege, wie das vorhandene System den Anforderungen des Wachstums gerecht werden kann.
2005

Moser Thomas

Steuerungsinstrumente und Maßnahmen für Wissensrisiken i

Dipl-alt

Dipl Ing
Aufgrund steigenden Wettbewerbs, neuen Gesetzen und Vorschriften gewinnt der Umgang mit Risiken immer mehr an Bedeutung. Ein effizientes Risikomanagement erfordert die Betrachtung von erfolgskritischen Risiken. In wie fern sich die Entwicklung von geeigneten Steuerungsmaßnahmen für diese Risiken unterstützen lässt, untersucht der Autor in dieser Arbeit.Dazu fasst er die für ein Unternehmen mit wissensintensiven Geschäftsprozessen und Tätigkeiten kritischen Risiken in einer neuen, weiter reichenden Definition zusammen. Darin wird zwischen wissensbasierten und wissensgefährdenden Risiken unterschieden. Aufbauend auf dieser Definition für den Begriff Wissenrisiken entwirft der Autor das Risk Response Planning Modell und implementiert einen Prototyp zur vereinfachten Anwendung.Wesentliche Stützpunkte des Modells sind ein Katalog an abstrahierten, generellen Wissensrisiken und ein Katalog an geeigneten Steuerungsmaßnahmen. Diese Kataloge werden durch eine vom Autor entwickelte Logik miteinander verbunden. Instanziiert ein Benutzer ein neues fallspezifisches Risiko von einem aus dem generischen Wissensrisikokatalog, kann das Modell anhand der logischen Verbindung zwischen den beiden Katalogen dem Benutzer geeignete generische Steuerungsmaßnahmen vorschlagen. Auf diese Weise unterstützt das Modell den Benutzer bei der Entwicklung von passenden Steuerungsmaßnahmen für Wissensrisiken.
2004

Lux Mathias

Magick - Ein Werkzeug für Cross-Media Clustering und Visualisierung i

Dipl-alt

Dipl Ing
Die digitale Informationsflut des 21. Jahrhunderts bietet jedem Forscher und Entwickler genug Motiv, um sich mit Information Retrieval jeder Art zu beschäftigen. Die Verknüpfung verschiedenster Medien wie Internet, Radio, Fernsehen, Tageszeitungen oder Telefon führt zu eine heterogenen Informationslandschaft, in der sich einheitlich Navigation und gemeinsame Suche nur schwer verwirklichen lassen. Das Wissensgebiet ?Information Retrieval? liefert viele ausgereifte Methoden für den Umgang mit Textdokumenten, auch für Bilder existieren bereits erprobte Retrieval-Mechanismen. Metadaten erlauben eine Anreicherung von Daten mit semantischen computerlesbaren Informationen unabhängig von ihrem Medium. Magick kombiniert diese Techniken, um eine als cross-media Applikation die scharfen Grenzen zwischen Medien zu verwischen und für den Anwender die Informationslandschaft homogener zu gestalten.
2004

Hausenblas Michael

Semantische Darstellung und Abfrage von Rechtsnormen am Beispiel Hochschulrecht i

Dipl-alt

Dipl Ing
Die Motivation der vorliegenden Arbeit hat den Schwerpunkt im konzisen Auffinden von relevanten Gesetzesstellen im Hochschulrecht ausgehend von einem bekannten Sachverhalt. Dies entspricht dem rechtswissenschaftlichen Vorgang der Subsumtion, also der Zuordnung eines Sachverhalts zu einem, im Gesetz definierten Tatbestand.In weiterer Folge gewann der Gedanke eine Art von Hochsprache für das Semantic Web zu kreieren mehr Gewicht. Diese Stoßrichtung wird durch die zunehmende Verbreitung von Semantic Web-Basisvokabularen, wie z.B. Topic Maps, gerechtfertigt. Allerdings stoßen solche Vokabulare schon heute an eine entscheidende Grenze: Den Menschen, der ein solches Vokabular verwendet. Vergleicht man oben genannte Vokabulare mit einer Maschinensprache (Assembler) so wird offensichtlich, was fehlt, um das Semantic Web benutzer- und entwicklerfreundlicher zu machen: eben Hochsprachen, die das leisten, was LISP, Java usw. im Bereich der konventionellen Programmierung bieten.Weiters unterscheidet sich die Art, wie die Darstellung der Wissensmaterie (Ontologie) in der vorliegenden Arbeit vollzogen wird, von bisherigen Ansätzen. Der Heraklit'sche Gedanke (Panta Rhei) dient hier als Vorbild, um Wissensgebiete als eine Ansammlung von Vorgängen zu betrachten.Diese Diplomarbeit ist dem Bereich der angewandten AI zuzuordnen und als ein Beitrag zum Semantic Web mit dem Schwerpunkt auf die Implementierbarkeit und dem konkreten Nutzen der Ergebnisse zu verstehen.
2003

Fischer Manuel

A Contribution to Affinity Measures in Knowledge Management Systems i

Dipl-alt

Dipl Ing
Ausgangspunkt dieser Arbeit ist die Beobachtung, dass ein Mehrwert für Wissensmanagementsysteme dann entsteht, wenn Wissensträger noch besser als bislang miteinander in Beziehung gesetzt werden können. Wissensträger können im Kontext von Wissensmanagement sowohl Nutzer als auch Dokumente sein. Vor diesem Hintergrund ist das Ziel dieser Arbeit, einerseits Zusammenhänge im Dokumentenbestand an sich und andererseits sowohl zwischen Nutzern untereinander als auch zwischen Nutzern und dem Dokumentbestand zu identifizieren und messbar zu machen.Ausgangspunkt hierfür bilden Ansätze aus dem Bereich der Recommender- und People-Locator-Systeme. Das durch Mitwirkung des Know-Center entwickelte System PADDLE - "Personal Adaptable Digital Library Environment" - stellt den Dokumentbestand bereit und soll in weiterer Folge um die angesprochene Funktionalität erweitert werden.Als Grundlage hierfür werden sogenannte Affinitätsmetriken auf der Basis von Metadaten entwickelt, mittels derer die Ähnlichkeit zwischen Wissensträgern gemessen werden kann. Es werden parametrisierbare Metriken über unterschiedliche Bezugsformen, wie Fach-, Zeit- und Ortsbezug konzipiert. Der Fokus liegt derzeit auf thematischen Meta-Daten, die den Inhalt eines Dokument anhand einiger weniger Schlagworte beschreiben. Die Konzepte werden prototypisch implementiert und in PADDLE integriert. Abschließend wird untersucht, wie gut sich die durch die Wahl geeigneter Parameter erzielbaren Ergebnisse mit der subjektiven Bewertung von "Ähnlichkeit" im Beispieldokumentbestand decken.
2003

Kandpal Dolly

Augmenting Knowledge-Based Systems with Dynamic Personalisation Concepts i

PhD/ Dissertation

PhD
Der Schwerpunkt der heutigen wissensintensiven Gesellschaft liegt in der Bereitstellung von Wissen in Echtzeit in richtiger Form und Menge an den Wissensarbeiter. Personalisierung, also die Anpassung eines Systems an die Benutzeranforderungen, gewinnt immer mehr an Bedeutung als Möglichkeit zur Lieferung relevanten Wissens. Personalisierung kann statischer oder dynamischer Form sein. Statische Personalisierung findet zum Zeitpunkt des Entwurfs oder des Übersetzens statt, wobei dynamische Personalisierung zur Echtzeit stattfindet. Statische Personalisierung ist beschrännkt, weil es Personalisierung zu einem bestimmten Zeitpunkt lediglich unter Berücksichtigung des derzeitigen Interesses und Wissenshintergrundes des Wissensarbeiters definiert. Die Einschränkungen sind offensichtlich: Dynamische Wechsel in Interesse und Wissen werden von den bisherigen Konzepten nicht erfasst. Vor diesem Hintergrund gewinnt dynamische Personalisierung zunehmend an Bedeutung. Die Hauptidee dynamischer Personalisierung ist die Unterstützung von Wissensarbeitern, so dass diese Personalisierungseigenschaften definieren können, die sich ständig an die Bedürfnisse, Interessen, den Kontext und die Umwelt dieser Wissensarbeiter in der sie tätig sind anpassen. Obwohl sich zur Zeit etliche wissenschaftliche Ansätze mit statischer Personalisierung befassen, wird relativ geringe Aufmerksamkeit auf die konzeptionelle Basis dynamischer Personalisierung gelegt. Eine umfassende Studie der existierenden wissensintensiven Systeme verschiedener Bereiche zeigt deutlich, dass bereits viele Systeme Eigenschaften anbieten, die dynamische Personalisierung unterstützen, jedoch existieren von einem wissenschaftlichen Standpunkt aus keine soliden und exakten Modelle der Hauptmerkmale dynamischer Personalisierung.Das Ziel dieses Arbeit ist dynamische Personalisierung aus konzeptioneller Sicht zu untersuchen. Dieses Ziel wird durch das Begründen eines allgemeinen Verständnisses und durch Definition des Begriffs dynamische Personalisierung, sowie durch die Einführung eines Gerüsts für die Beschaffung und Bereitstellung von dynamischer Personalisierung fuer wissensintensive Systeme basierend auf dem aktuellen Benutzer Kontext erreicht. Dieser Benutzer Kontext beinhaltet nicht nur Benutzer Präferenzen und Profilinformationen, sondern auch umweltbedingte Aspekte wie Zeit, Ort, Zugangsgerät und Netzwerkseigenschaft. Das Gerüst beinhaltet ein abstraktes Meta-Modell zur Bereitstellung von dynamischen Personalisierungsfunktionen, bereichs-spezifischen Modellen und eine “Mapping”-Methodologie. Das Verwenden dieser Methodologie (einer Sequenz von Leitfäden) erlaubt die Ableitung bereichsspezifischer Modelle für verschiedene wissensbasierte Bereiche vom abstrakten Meta-Modell. Die dynamischen Personalisierungsfunktionen von Modellen und Applikationen der verschiedenen wissensintensiven Bereiche werden durch dynamische Personalisierungsfunktionen der zugehörigen bereichspezifischen Modelle dargestellt. Das Gerüst ist allgemein gehalten, um die Anwendbarkeit des Gerüstes fuer eine grosse Anzahl von wissensintensiven Bereichen, die dynamischer Personalisierungsfunktionen bedürfen, zu ermöglichen.
2003

Dietinger Thomas

Aspekte von e-Learning Umgebungen i

PhD/ Dissertation

PhD
Gewaltige Fortschritte in der Computertechnologie und die Weiterentwicklung des Internets haben zu neuen Ansätzen beim Lernen und Lehren geführt, die unter dem Begriff e-Learning zusammengefasst werden. Diese Dissertation legt dar, was von e-Learning erwartet werden kann, und untersucht, obwohl eigentlich auf die technologischen Aspekte orientiert, alle Arten von Anforderungen für e-Learning Umgebungen: pädagogische, funktionale und nicht-funktionale. Ein spezielles Kapitel wird allen für das eLearning Gebiet relevanten Standards gewidmet, aufgrund ihrer Wichtigkeit bei der Steigerung der Interoperabilität, der Senkung von Kosten und der Akzeptanzsteigerung.Ein Beispiel für ein State-of-the-Art e-Learning System, das vom Autor entworfen und unter seiner Führung entwickelt wurde, wird ausgeführt, auf dessen Basis erfolgreich abgeschlossene Projekte präsentiert, um die möglichen Einsatzgebiete aufzuzeigen, und Ideen für weitere Entwicklungen werden skizziert.
2003

Stoisser Eduard

Informationstechnologien für Wissensnetzwerke - Werkzeugeinsatz im Kontext von Wissensmanagement i

Dipl-alt

Dipl Ing
Netzwerke zum Wissensaufbau, zur Wissensnutzung und zum Wissenstransfer sind seit Bestehen humaner Organisationsformen bekannt. Die gezielte Zusammenarbeit und Vernetzung von Wissensträgern zur gemeinsamen Nutzung von Wissen, wird als Wissensnetzwerk bezeichnet. Die Rolle der Informationstechnologie ist in diesem Umfeld heiß diskutiert, von Wissenschaftlern und Praktikern gleichermaßen. Technologieunterstützung ist keine Bedingung für den Aufbau bzw. den Bestand von Wissensnetzwerken, sie ermöglicht jedoch in vielen Bereichen eine Verbesserung der Rahmenbedingungen. Die Arbeit beschreibt aus der Sicht von Wissensnetzwerken die zeitliche Relevanz, den Nutzen und die Praxistauglichkeit von einzelnen Informationstechnologien. In diesem Zusammenhang ist ein Schwerpunkt der Arbeit die Untersuchung von integrierten Lösungen vor dem Hintergrund von Wissensmanagement. Die Analyse von praktischen Fragestellungen liefert schlussendlich Hinweise dafür, wie Informationstechnologien für Wissensnetzwerke den Rahmenbedingungen entsprechend eingesetzt werden können.
2002

Pacnik Herbert

Hybrides Lernen - Integration von eLearning in traditionelle Unterrichtsmethoden i

Dipl-alt

Dipl Ing
eLearning kann in Unternehmen so gut wie nie komplett neu eingeführt werden. Sehr oft haben sich traditionelle Unterrichtskonzepte etabliert und müssen bei der Erstellung eines neuen Konzepts berücksichtigt werden. Über die Einführung von eLearning von Beginn an, findet man sehr viel an Informationen - aber kaum jemand berücksichtigt den Prozess einer nahtlosen Integration von eLearning in bestehende traditionelle Unterrichtsstrukturen. Das Ziel dieser Arbeit ist, zu beschreiben wie dieser Integrationsprozess aussehen kann und wie ein eLearning-System inklusive aller notwendigen Komponenten implementiert werden kann. Anhand eines Industrieprojektes wird die praktische Anwendbarkeit diese Prozesses gezeigt, und die Umsetzung am Beispiel eines bekannten eLearning System durchgeführt.
2001

Rollett Herwig

Knowledge Management Technologies in Context i

PhD/ Dissertation

PhD
Der Großteil der gängigen Wissensmanagementliteratur ist entweder aus einer Wirtschaftsperspektive geschrieben, wobei technische Überlegungen nur am Rande gestreift werden, oder aus einer Technologieperspektive, wobei der wirtschaftliche Kontext meist zu wenig Beachtung findet. Im Gegensatz dazu beschäftigt sich diese Dissertation mit der Rolle von Technologien im Wissensmanagement, ohne dabei organisatorische Fragen aus den Augen zu verlieren.Zwei unterschiedliche aber komplementäre Sichtweisen von Wissensmanagement werden präsentiert, die eine basierend auf Prozessen, die andere auf Interaktionen. Lessons Learned aus vergangenen Wissensmanagementprojekten werden gesammelt, zusammengefasst, kategorisiert und benutzt, um die dringlichsten Fragestellungen im Wissensmanagement hervorzuheben. Sieben Wissensmanagementprozesse und ihre Beziehungen werden detailliert diskutiert: Planen, Generieren, Integrieren, Organisieren, Transferieren, Warten und Bewerten von Wissen. Technologien mit dem Potenzial zur Unterstützung von Wissensmanagement werden in elf Gruppen eingeteilt und ihre Relevanz für Wissensmanagement wird systematisch untersucht, indem der Beitrag jeder der Technologiegruppen zu jedem der Wissensmanagementprozesse beurteilt wird. Viele offene Fragen und Gelegenheiten für zukünftige Forschung und Entwicklung werden identifiziert, sowohl organisatorische als auch technische. Eine ausgesprochen umfangreiche Wissensmanagementbibliographie schließt die Dissertation ab. Auszug aus dem Buch Knowledge Management → 272,72 kBOrder from Springer →
Contact Career

Hiermit erkläre ich ausdrücklich meine Einwilligung zum Einsatz und zur Speicherung von Cookies. Weiter Informationen finden sich unter Datenschutzerklärung

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close