Die Veranstaltung gibt einen Einblick in die grundlegenden Konzepte von Big Data. Es werden technologische als auch organisatorische und prozessuale Aspekte von Big Data Analytics beleuchtet. In einer praktischen Übung entwerfen die Studierenden erste Anwendungsfälle rund um Big Data (data-driven Use Cases).
(short presentation of the AAI Area)
Late frost is one of the greatest threats to the harvest and affects many, very different types of fruit, from plums to cherries to grapes. New technologies enable us to minimize losses due to forest damage, we just need to know how to use them unerringly for us. In this workshop, we will introduce farmers to practical technologies to prevent frost damage, show how they work and how data can be interpreted. Finally, we will discuss future, practical research projects that can provide valuable results, especially for fruit and wine growers.
In recent years the internet of things has accelerated the development of weather stations. It has also lowered their cost, which allows today to have devices that generate good quality data at a low cost. These devices can be used for frost forecasting. In this talk, we will see some of the good practices to implement when installing these devices on farms and connecting them to the Internet.
Der Vortrag führt kurz in die Geschichte der KI ein, um dann in weiterer Folge besonders die Aspekte von generativer KI anhand von ChatGPT und anderen KI-Tools/Frameworks zu diskutieren.
Der Vortrag beleuchtet die Aspekte von generativer KI anhand des Beispiels von ChatGPT.
Impulse zur Datennutzung und Herangehensweise bei der Umsetzung von KI-Projekten
Impulse zur Datennutzung und Herangehensweise bei der Umsetzung von KI-Projekten
Die Bereitstellung von Dienstleistungen oder Produkten an den Endverbraucher in der letzten Etappe der Lieferkette ist heutzutage quasi ein Muss, stellt aber Kleinunternehmen vor organisatorische und finanzielle Herausforderungen. In dem Vortrag wird eine Lösung präsentiert, die für einen Verein, der regionale Direktvermarkter und Konsument:innen vernetzt, erarbeitet wurde. Dabei wird auch der Aspekt von datenbasierten Innovationen diskutiert.
Vorstellung der Beratungsmethodik "Data Solution Space" mit der datengetriebene Lösungen für unternehmerische Problemstellungen entwickelt werden können.
-
The development of modern tools in the field of digital arts and humanities requires collaboration between engineers who are versed in new information technologies but frequently operating within different work realities than their users (SSH researchers) and humanities scholars with specific disciplinary interests who are not always familiar with the technological solutions and constraints that their ideas may refer to. Moreover, both parties are often involved in several projects at the same time. Joint work can be challenging and requires an adequate model of cooperation and continuous communication to effectively and efficiently achieve the goals and objectives of a project. We propose a joint panel for Inspire and TRIPLE co-creators to discuss collaboration between technical and non-technical partners: the challenges, lessons learnt, possible solutions, and best practices for similar projects. The topics can include communicating, organising a workflow that takes team specifics into account, and managing change (user needs, personnel rotation, budget) within a project.
-
A story of waste management and research cooperations
A day in a life of an AI researcher
Impulse zur Herangehensweise bei der Nutzung von KI im betrieblichen Kontext
Podiumsdiskussion zum Thema "Potenziale und Risiken des Einsatzes von KI" u.a. auch Diskussion des EU AI Acts
Strukturiert vorliegendes Domänenwissen hat sich seit jeher in den Ingenieursdisziplinen als Grundlage für Modellbildung, Simulation und Optimierung bewährt. Dieses Domänenwissen wird seit einiger Zeit durch die großen Datenmengen ergänzt, die durch die Digitalisierung verfügbar wurden. Theorieinspiriertes maschinelles Lernen versucht, Domänenwissen und Daten zu mathematischen Modellen zu vereinen, die rein daten- oder rein theoriegetriebenen Modellen hinsichtlich Genauigkeit und Effizienz überlegen sind. In diesem Vortrag diskutieren wir mögliche Ansätze für theorieinspiriertes maschinelles Lernen und zeigen Beispiele für deren erfolgreiche Anwendung in Ingenieursdisziplinen.
Presentation about the usefulness of ChatGPT in science, and its risks and limitations
Physics-informed neural networks (PINNs) have become increasingly popular in various disciplines such as engineering or biomedicine, and are capable of solving differential equations given only information about the initial and boundary conditions (IC/BCs). However, previous attempts have shown that training PINNs in this context is a difficult endeavour, often leading to incorrectly predicted system dynamics. Therefore, a larger part of the scientific literature on PINNs proposes remedies to these training difficulties, including changes to training objectives, novel ways how these objectives are evaluated, and approaches to better balance conflicting objectives inherent in PINNs. In our own work, we have investigated the underlying reasons for training difficulties in PINNs with a particular focus on the mathematics of physical and dynamical systems, such as for fluid flow or pendulum dynamics. We have shown that several “nonphysical” solutions are represented by minima in the optimization landscape of the PINN training, and slow down or even prevent convergence to the correct system dynamics. More specifically, we have shown that fixed points of dynamical systems, which appear as constant solutions in ordinary differentiation equation (ODEs) or steady-state solutions in partial differential equations (PDEs), are attractive for PINN training. What is more, we have observed that the physics training loss is affected by the complexity of the solution, as measured by the energy of its high-frequency components. This is connected to the so-called spectral bias of network training, which leads to low-frequency components of the target function being learned easier and faster than its high-frequency components. This spectral bias has interesting consequences in vanilla PINNs, in which the IC/BCs are enforced via a separate loss term. In such a setting, the PINN can trade between accurately learning the IC/BCs and learning a solution that satisfies the given system of differential equations. If a small shift in initial conditions thus leads to significantly simpler, i.e., smoother, system dynamics (as is common in chaotic systems), then the PINN will shift the initial condition accordingly. The result is a physically correct solution for a wrong initial condition. The relative weights assigned to fitting the IC/BCs and to satisfying the governing differential equations, respectively, influence the capability of the PINN to make such a trade-off and determine the position on the observable Pareto front to which the PINN converges after training. Both effects – convergence to nonphysical solutions affected by fixed points, and to physical solutions for wrong initial conditions – are strongly affected by parameters of the system of differential equations and the size of the computational domain. Indeed, the observable Pareto front for a PINN trained with gradient methods changes substantially with the system parameters, even when feature scaling is applied. This makes choosing the corresponding loss weights difficult. Our results further consistently showed that smaller computational domains lead to more stable convergence to the desired, physically correct system dynamics by smoothing the optimization landscape and by thus reducing the influence of undesired optima. We argue that this explains the success of many of the proposed remedies, including adaptive sampling of collocation points and the decomposition of the computational domain. In summary, our insights contribute to understanding training difficulties in PINNs, and help in choosing the right remedies.
Physics-informed neural networks (PINNs) have become increasingly popular in various disciplines such as engineering or biomedicine, and are capable of solving differential equations given only information about the initial and boundary conditions (IC/BCs). However, previous attempts have shown that training PINNs in this context is a difficult endeavour, often leading to incorrectly predicted system dynamics. Therefore, a larger part of the scientific literature on PINNs proposes remedies to these training difficulties, including changes to training objectives, novel ways how these objectives are evaluated, and approaches to better balance conflicting objectives inherent in PINNs. In our own work, we have investigated the underlying reasons for training difficulties in PINNs with a particular focus on the mathematics of physical and dynamical systems, such as for fluid flow or pendulum dynamics. We have shown that several “nonphysical” solutions are represented by minima in the optimization landscape of the PINN training, and slow down or even prevent convergence to the correct system dynamics. More specifically, we have shown that fixed points of dynamical systems, which appear as constant solutions in ordinary differentiation equation (ODEs) or steady-state solutions in partial differential equations (PDEs), are attractive for PINN training. What is more, we have observed that the physics training loss is affected by the complexity of the solution, as measured by the energy of its high-frequency components. This is connected to the so-called spectral bias of network training, which leads to low-frequency components of the target function being learned easier and faster than its high-frequency components. This spectral bias has interesting consequences in vanilla PINNs, in which the IC/BCs are enforced via a separate loss term. In such a setting, the PINN can trade between accurately learning the IC/BCs and learning a solution that satisfies the given system of differential equations. If a small shift in initial conditions thus leads to significantly simpler, i.e., smoother, system dynamics (as is common in chaotic systems), then the PINN will shift the initial condition accordingly. The result is a physically correct solution for a wrong initial condition. The relative weights assigned to fitting the IC/BCs and to satisfying the governing differential equations, respectively, influence the capability of the PINN to make such a trade-off and determine the position on the observable Pareto front to which the PINN converges after training. Both effects – convergence to nonphysical solutions affected by fixed points, and to physical solutions for wrong initial conditions – are strongly affected by parameters of the system of differential equations and the size of the computational domain. Indeed, the observable Pareto front for a PINN trained with gradient methods changes substantially with the system parameters, even when feature scaling is applied. This makes choosing the corresponding loss weights difficult. Our results further consistently showed that smaller computational domains lead to more stable convergence to the desired, physically correct system dynamics by smoothing the optimization landscape and by thus reducing the influence of undesired optima. We argue that this explains the success of many of the proposed remedies, including adaptive sampling of collocation points and the decomposition of the computational domain. In summary, our insights contribute to understanding training difficulties in PINNs, and help in choosing the right remedies.
In this talk we provide an insightful exploration of trustworthiness in AI, we provide an essential overview of the issues, principles, and challenges, with a special focus on fairness and privacy. Addressing how AI can challenge these areas, we draw attention to the assessment methods and current capabilities of AI systems. We conclude with a look at existing regulations, standards, and initiatives, aimed at bolstering the trustworthiness of AI systems.
Es wird anschaulich vorgestellt, wie technologische Unterstützungsmöglichkeiten durch KI (z.B. Chatbots) für das Lernen am Arbeitsplatz genutzt werden können.
-
Der Vortrag „Künstliche Intelligenz und menschliche Kompetenz“ gibt einen Überblick über das Thema Künstliche Intelligenz und die wesentlichen Machine Learning Technologien mithilfe deren Künstliche Intelligenz in Unternehmen umgesetzt werden kann und welche Voraussetzungen wir sowohl als Menschen als auch als Organisation dafür benötigen. Besonders im Fokus steht dabei die praxisnahe Erklärung der Technologien und die Verknüpfung dieser mit Best Practice Beispielen und Anwendungen. Vom Know-Center eigens entwickelte Methoden, wie z.B. die Data Service Cards werden kurz vorgestellt und ermöglichen einen alltagsnahen Einstieg in die Thematik Künstliche Intelligenz und schaffen so einen hohen Praxisbezug
KI Use-Cases in Form von Best Practices, welche sowohl thematisch als auch technologisch zur Zielgruppe passen. Anschließend folgt ein Theoriepart um den TeilnehmerInnen einen guten Überblick über das Thema KI zu geben. Imkl. der Vorstellung von relevanten Zukunftstrend
Der Vortrag beleuchtet das (Nicht)Potential von KI, erläutert wie man KI-Projekte angeht und zeigt Beispiele für den Einsatz von KI im Vertrieb auf.
Aktueller Überblick der Stand der Wissenschaft im Bereich der vertrauenwürdigen KI am Beispiel von ChatGPT.
Wie funktioniert ChatGPT und ähnliche Large Language Models und welche Auswirkungen auf Berufe, insbesondere Kreativberufe, wird diese Technologie haben.
Überblick über aktuelle KI Forschung, insbesondere im Bereich der generativen KI mit Fokus auf LLM (Large Language Models)
Künstliche Intelligenz ist in aller Munde, aber ist sie auch von Bedeutung für mich als Führungskraft im Bereich der Gesundheitsvorsorge? Der Vortrag wird kurz den derzeitigen Entwicklungsstand von Künstlicher Intelligenz beleuchten, anhand von Beispielen auf das Potenzial als auch die Beschränkungen von KI eingehen und erläutern wie man KI-Projekte angehen kann und welche Do’s and Don’ts es dabei gibt. Die Leitfrage im Hintergrund ist dabei stets: „Soll oder muss ich mich als Führungskraft mit dem Thema auseinandersetzen oder nicht?“
AI wird in absehbarer Zeit in vielen Berufen Veränderungen mit sich bringen. Welche diese sind, und auf welche Berufe speziell betroffen sind, wird in diesem Talk behandelt.
Description of the Projects KI-Waste, CLARUS & InSpecScrap
Der Vortrag gibt eine Einführung in das Thema der KI, wobei Möglichkeiten und Grenzen der KI aufgezeigt werden. Augenmerk wird auch auf den wirtschaftlichen Nutzen als auch den Einsatz von sowie den Umgang mit KI gelegt.
ChatGPT und damit Generative AI stellt eine Revolutino dar und einen Durchbruch in der Forschung. Allerdings ist diese Technologie nicht vertrauenswürdig. Der Talk zeigt die weitere Roadmap, die zu einer zertifizierbaren AI führen soll.
Der Talk erörtert warum es einer Datenstrategie bedarf, um aus Daten einen Mehrwert für Unternehmen zu generieren. Zusätzlich werden Aspekte wie Data Governance, Data-driven USe Cases, Data Mesh und Data Spaces (Data Sharing) diskutiert.
Der Vortrag bietet einen Einblick in das Gebiet der künstlichen Intelligenz und zeigt Möglichkeiten und Grenzen auf. Ein kurzes Hands-on zu Generativer AI rundet den Vortrag ab.
Der Vortrag führt in das Thema der KI ein, erklärt die Begrifflichkeit und zeigt das mögliche Potential als auch Herausforderungen der KI auf.
The information bottleneck principle aims for a latent representation that is sufficient for a task, while at the same time being maximally compressed – a minimal sufficient statistic. In this talk, we first critically reflect on the application of the information bottleneck principle in deep learning, with special focus on the compression term. We discuss theoretical, experimental, and engineering evidence in the shape of non-vacuous generalization bounds, information plane analyses, and neural classifiers successfully trained using the information bottleneck principle. Taken together, these three perspectives suggest that compressed representations help improving generalization and robustness. In the second, shorter part of the talk, we argue that (variational) approaches used to implement the intractable information bottleneck objective can also be successfully used to implement other information-theoretic objectives. We concretize this at the hand of two examples: Invariant representation learning for fair classification and hierarchical representation learning for multiple tasks. We show that the resulting methods have interesting and desirable properties, suggesting that information-theoretic objectives can be useful ingredients for deep learning.
There has been a breakthrough in technology for generative AI. But how is that kind of AI different from the type of AI we find in typical industrial applications? This talk is a deep dive into the technologies behind generative AI and how these can be combined with traditional AI for industrial solutions.
Welche Rolle spielt die KI in unserer Gesellschaft und welche Herausforderungen stellen aktuelle Technologien? Das Know Center stellt sich den Herausforderungen und erforscht und entwickelt KI Systeme, die nicht nur gut funktionieren, sondern auch den Ansprüchen der vertrauenvollen KI entsprechen.
-
-
TBD
Praxiserprobte Tools & Methoden zur Entwicklung von KI & datengetriebenen Services
-
-
Motivation Sprachmodelle in aller Munde Negativschlagzeilen Auswirkungen auf den Arbeitsmarkt Sprachmodelle Geschichte von NLP + Entwicklung von “Text verstehen lernen” Geschichte GPT + ChatGPT LLMs in der Praxis Mögliche Lösungsansätze
Designing for learning in a digital world
Designing for learning in a digital world
Digitalisierung und Umweltschutz sind zwei der vitalsten Aufgaben dieses Jahrhunderts. Angesichts der Dringlichkeit digitaler Transformation und der gleichzeitig stetig wachsenden Menge an Elektronikabfall (e-waste), stellt die Umsetzung beider Bereiche Akteur:innen der Wirtschaft und Forschung, aber auch Konsument:innen vor große Herausforderungen: Wie zur Nachhaltigkeit des Elektrogerätes beitragen? Wie geltende Gesetze und Regularien erfüllen, ohne Arbeitsprozesse zu gefährden? Wie verantwortungsbewusst konsumieren? Gemeinsam mit geladenen Umwelt-, Wirtschafts- und Technologie-Spezialist:innen wollen wir am Freitag, 14.01.2022 14:00 Uhr bis ca. 16:00 Uhr in unserem Trash-Talk zum Thema "IT-Schrott - was tun?" über zielführende Ansätze für das Gelingen der Kreislaufwirtschaft in einer digitalisierten Welt diskutieren. Renommierte Umweltexpert:innen führen in Impuls-Vorträgen zunächst in die komplexe Thematik des e-waste aus der Perspektive der Umweltschutzverbände und Agierender der Recycling-Praxis ein. Anschließend wollen wir ein offenes, interaktives Gespräch über Ideen und Innovationen zur Verbesserung der e-waste-Problematik anregen. Interessierte und Gäste aus Wirtschaft und Forschung sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!
Centers of Excellence promote the use of upcoming exascale and extreme performance computing capabilities and scale up existing parallel codes towards exascale scaling performance. The Centers of Excellence cover tools and optimize HPC applications along with multiple areas of knowledge. Furthermore, they address the skills gap in computational science in the targeted domains by specialized training for increased adoption of advanced HPC in industry and academia.
Invited guest talk at the Applied Circular Economics course of the Harvard Extension School, discussing recent research on Circular Business Model Innovation
Discussion about the creation of digital, data-driven services and how tools, like the data service cards, can help in that regard.
Digitale Transformation geht nicht ohne Daten. Aber welche Daten benötigen wir und wo kommen die Daten her? Was will ich eigentlich damit erreichen? Was ist der Nutzen? Wie müssen die Daten verarbeitet werden? Für die Beantwortung dieser Fragen gibt es schon bewährte Methoden und Tools, die Unternehmen weiterhelfen können. Schon von den „Data Service Cards“ oder dem „Data Service Canvas“ gehört? Nein? Dann unbedingt bei diesem Expert Spotlight dabei sein!
Diskussion über Prozessdigitalisierung und welche Rolle dabei Daten spielen.
The digital revolution is in full swing, and data has become the central resource of our modern global society. How will those developments change our way of living? What role can ethics play in this context?
Diskussion bzgl. der Möglichkeiten von AI im Kontext der Kreislaufwirtschaft
The application of Big Data Analytics or AI with the power of HPC offers enormous potential for research, development and innovation as well as optimisation of products and manufacturing processes. Making these technologies available for wider use is a necessary step towards building a sustainable technological ecosystem tailored to the interests and needs of research, business and society. The event will provide information about the many benefits that supercomputing can bring to business and research, inspire attendees about potential use in different sectors with concrete use cases examples, and highlight the support services available in Austria for organisations that want to approach the supercomputing world.
This talk investigates the question if data science without assumptions is possible and highlights the challenges and possible approaches to avoid making accidental or implicit assumptions.
Spurring growth and innovation in the industry sector is a crucial goal of policy-makers. A commonly stated advantage of Open Science is a greater return on investment for funders, as results are made re-usable to industry. According to the EC’s Directorate-General for Research and Innovation, Open Access to research results “[is] the springboard for increased innovation opportunities, for instance, by enabling more science-based start-ups to emerge.” And a company’s survival strongly depends on knowledge to drive decision making, innovation, research and development and serves as fuel for today’s industrial engines. In this talk, I will shed light on the status of the uptake of open science resources in industry from two perspectives: Are Open Science resources being taken up by industry, though? And how can the uptake of open science be facilitated through design on open science platforms? In this talk, I will present the results of several studies conducted within the scope of two EU research projects. First, in the ON-MERRIT project, we conducted an interview study followed by a questionnaire study with people employed in the industry sector to investigate the drivers and barriers to the uptake of open science resources. Drivers for the uptake of Open Science resources include employing people with a university background offering incentives, support and training for the uptake, and learning from others by exploiting the wisdom of the crowd. The identified barriers consist of license restrictions, the reliability and validation of data, a limited number of Open Access publications and expensive fees for publishing Open Access. Second, in the TRIPLE project, we conducted a scoping study to derive a design space on how to facilitate the uptake of open science through design. Our findings include concrete examples for operationalizing the derived design implications for open science platforms, such as searching and reading scientific content or discussion forums.
Science funding is increasingly linked to the impact of research on society at large. This means that calls are increasingly focused on what research can contribute to civil society, industry, etc. It is also a way of justifying the good use of public money since it allows for increased benefits for society. However, this poses two main problems: the time and energy needed to monitor impact indicators are no longer available for research. And the fact that research is oriented and conducted in a funnel that eliminates all topics that have not been identified as useful or necessary to society. This leads to an impoverishment of scientific practices, to standardisation that also harms serendipity or innovation. At the same time, it is essential that research also serves the citizen. Therefore, there is a double injunction, which is understandable but raises a certain number of questions to resolve or provide elements for reflection. This is the issue that the session will focus on. In particular, it is a question of proposing a shift from the perspective of the research subject to public policy to that of research stimulated by citizen incentives. This will be based on what OPERAS, the European Research Infrastructure dedicated to open Scholarly Communication in SSH, is putting in place, particularly the collaborative funding tool attached to the discovery service. Through the example of the OPERAS Discovery service, which provides a complete solution to discover SSH resources with opportunities to fund SSH projects, the perspective is not only to develop science that researchers envision to be impactful for citizens but much more to understand what kind of projects can interest and mobilize societies. The session entitled « Changing perspective from policy to societies » will be an interactive round table with 15min presentations about the issues related to impact and science funding with a clear example of another way of doing it. And then, one hour will be dedicated to discussing: 1. How impact perspective can constraint or stimulate innovation? Especially in the humanities.2. How will science be conducted in the future, and how can science improve its role as a transformative agent for societal change? This last question is the core question of the ESOF conference, but we believe it is particularly relevant to address it once the impact aspect has been discussed. However, the question will be oriented towards the relations of researchers and citizens, especially thanks to the SSH crowdfunding platform linked to the GoTriple discovery solution.
-
-
In dem Workshop werden die wesentlichen Elemente einer Datenstrategie sowie einige Tools zur Entwicklung einer solchen Strategie vorgestellt.
In dem Workshop werden die wesentlichen Elemente einer Datenstrategie sowie einige Tools zur Entwicklung einer solchen Strategie vorgestellt.
Huge amounts of time series is data generated in Industry 4.0/5.0 production environments. Monitoring and alerting based on rule-based systems is common, but modern AI can do much better enabling scenarios such as predictive maintenance. The challenge here is that sufficient amount of training data is necessary (especially for Deep Learning methods) however, annotating data is a tedious and time consuming activity. TimeFuse is an interactive web-based data analytics system for time series data offering users the possibility to seamlessly navigate in very large data, search for similar patterns in time series, and detect events and anomalies automatically. In particular, TimeFuse offers efficient means for capturing expert knowledge and annotating data, to support creation, optimization and maintainance of ML models.
Der LSZ CIO-Kongress ist die Convention der österreichischen IT Community. In dem Workshop wird der kommende AI Act (AIA) der EU vorgestellt sowie Auswirkungen als auch mögliche Vorbereitungsmaßnahmen diskutiert.
Die Veranstaltung gibt einen Einblick in die grundlegenden Konzepte von Big Data. Es werden technologische als auch organisatorische und prozessuale Aspekte von Big Data Analytics beleuchtet. In einer praktischen Übung entwerfen die Studierenden erste Anwendungsfälle rund um Big Data (data-driven Use Cases).
-
-
Information literacy (IL) must be considered a fundamental competency like the ability to read, write and calculate. IL has become essential for participating in society around the globe so that UNESCO even considers it “a basic human right in the digital world” as it empowers individuals “in all walks of life to seek, evaluate, use and create information effectively to achieve their personal, social, occupational and educational goals” (Catts and Lau, 2008, p. 8). The American Library Association calls information literacy a “survival skill in the Information Age”. Initiated by the CoVID-19 Pandemic, a sudden shift from traditional face-to-face interaction to interaction taking place in the virtual world has taken place. From one day to another the acquisition of digital competences and skills became a necessity in order to be still able to participate in the virtual world, whether in leisure time, at the job or at school. Consequently, an immediate need emerged regarding new initiatives on media and information literacy. Therefore, the idea emerged to design an application that i) offers an easy-to-use interface, ii) provides navigation guidance via competence-oriented learning goals, iii) motivates learners to reflect and transfer the newly gained knowledge into practice. The result (implemented within an Erasmus+ project called DIGIVID) is an innovative technology-driven approach - called DIGIVIDget - aiming at conveying digital competencies and skills to train people in information literacy.
Der Vortrag gibt einen Überblick über die Herausforderungen der Überprüfung und Validierung von KI Systemen sowie zeigt einige Vorschläge zu Überprüfungsverfahren (Auditkataloge) und berichtet von der praktischen Anwendung eines solchen Kataloges.
Trustworthy AI certificatio
-
Integrated data analysis (IDA) pipelines -- that combine data management (DM) and query processing, high-performance computing (HPC), and machine learning (ML) training and scoring -- become increasingly common in practice. Interestingly, systems of these areas share many compilation and runtime techniques, and the used—increasingly heterogeneous—hardware infrastructure converges as well. Yet, the programming paradigms, cluster resource management, data formats and representations, as well as execution strategies differ substantially. DAPHNE is an open and extensible system infrastructure for such IDA pipelines, including language abstractions, compilation and runtime techniques, multi-level scheduling, hardware (HW) accelerators, and computational storage for increasing productivity and eliminating unnecessary overheads. In this talk, we make a case for IDA pipelines, describe the overall DAPHNE system architecture, its key components, and the design of a vectorized execution engine for computational storage, HW accelerators, as well as local and distributed operations. We further report on the progress of building the DAPHNE compiler and runtime prototype, and the plans on establishing a striving open source community around DAPHNE
https://www.youtube.com/watch?v=AKbJCkPjJD
In dem Talk wird beleuchtet, wie man systematisch mit Datenwertschöpfung beginnen kann und was dabei zu berücksichtigen ist. U.a. wird dabei das am Know-Center entwickelte Werkzeug "Data Value Check" vorgestellt, mit dem in Unternehmen strukturiert datengetriebene Use Cases generiert werden können.
-
In dem Talk wird eine Einführung in die Geschichte der KI gegeben, die Anwendung von KI in der Praxis erörtert sowie ein Ausblick in die Zukunft aus Sicht der Forschung gemacht.
(short presentation of the ML group)
Die Flut an Innovationen, an neuen Technologien und rasante Veränderungen am Markt machen es uns oft schwer zu entscheiden welche dieser Neuerungen wir nun integrieren, welche nicht oder ob eventuell nur bestimmte Teile davon zu unserem Unternehmen passen. Im Vortrag wird anhand von Beispielen darauf eingegangen, wie Artificial Intelligence in der Arbeitswelt eingesetzt werden kann und wie Innovationstrategien uns bei der Integration neuer Technologien unterstützen können.
Der Vortrag gibt einen kurzen Abriss über die Geschichte der KI sowie den derzeitigen Status Quo. Es werden einige Beispiele von KI-Projekten des Know-Center gezeigt als auch auch ein Ausblick auf die zukünftigen Entwicklungen der KI-Forschung gegeben.
Der Vortrag beschäftigt sich mit den Aufgabenstellungen und Herausforderungen mit den Data Scientists typischerweise konfrontiert sind und zeigt auf wie hier das am Know-Center mitentwickelte Apache SystemDS unterstützen kann.
In dem Seminar werden Grundlagen und Themen zu Data-driven Business, insbesondere Big Data, Künstliche Intelligenz und datengetriebene Geschhäftsmodelle, präsentiert und erörtert.
Der Vortrag skizziert kurz was es bedarf, um ein datengetriebenes Unternehmen zu werden und welche Strategien in diesem Zusammenhang verfolgt werden können.
Immer mehr Unternehmen agieren heute datengetrieben, d.h. sie nutzen konsequent digitale Daten, um durch deren Analyse neue Erkenntnisse zu gewinnen, Prozesse zu optimieren, innovative Dienstleistungen anzubieten und letztendlich einen Wettbewerbsvorteil zu generieren. Damit ziehen Technologien wie Big Data, Artificial Intelligence in Unternehmen ein, neue Fachdisziplinen wie Data Science entstehen. Welche Herausforderungen kommen damit auf eine Unternehmens-IT zu? Welche Rolle kann und soll die IT hier spielen?
Welche Technologien sind für Industrie 4.0 zurzeit relevant und wie werden diese eingesetzt? Rund um welche Technologien sehen ExpertInnen das größte Potenzial für den produzierenden Bereich? Wie kommt man zu neutralen Informationen und was sind Anwendungsbeispiele im Umgang mit neuen Technologien?
(held jointly with Christoph Schweimer) Given a graph with weighted edges, a common task is to find shortest paths between vertices, i.e., paths with minimal weight. To facilitate such tasks, we consider the problem of edge pruning: For any two vertices, the shortest paths of the pruned graph have the same lengths as the shortest paths of the original graph. In the first part of the talk, we briefly review existing approaches to graph pruning and show that the computational complexity of the pruning task reduces if the original graph satisfies certain conditions. The second part of the talk is concerned with a concrete application of graph pruning, namely with the construction of location graphs from map data. We show that our approach to location graph construction ensures that the conditions for low computational complexity are met and illustrate the performance of our algorithm at the hand of several examples. Our work has practical relevance in areas such as logistics optimisation and agent-based movement simulations.
From ideas to data-driven business - what do SMEs need in order to become sucessful in the value generation out of data
In dem Talk werden mögliche datengetriebene Unternehmensstrategien als auch deren praktische Umsetzung in Projekten erläutert sowie Möglichkeiten aufgezeigt, wie ein Unternehmen sich auf den Weg zum Data-driven Business machen kann.
Daten nehmen stetig an Bedeutung für die alltäglichen Geschäftsprozesse zu und wird immer mehr zur wichtigsten Ressource der Unternehmen. Welche Zukunft erwartet uns in einer datenbasierten Geschäftswelt und welche Rolle werden Daten zukünftig tatsächlich spielen? In diesem kompakten Online Talk, werden vor allem die aktuelle Wichtigkeit der Daten für unsere Geschäftsmodelle diskutiert und Richtung Zukunft geschaut: welche Potentiale Big Data mit sich bringt und wie man es zukünftig mit neuartigen Technologien und innovativen Ideen vereinen kann.
The information bottleneck principle defines a latent representation as one that is sufficient for a task, while at the same time being maximally compressed – it aims for minimal sufficient statistics for a given task. In this talk, we critically reflect on the application of the information bottleneck principle in deep learning and investigate the meaning of the two constituent (sufficiency and compression) costs. We discuss theoretical, experimental, and engineering evidence in the shape of non-vacouous generalization bounds, information plane analyses, and neural classifiers successfully trained using the information bottleneck principle. We close the seminar by investigating the importance of individual neurons on classification performance and find that this importance is correlated with information-theoretic quantities computed from the neuron outputs. The seminar thus gives an overview of how information theory can help gaining a better understanding of the inner workings of neural networks.
This session is dedicated to breaking down silos in data and AI innovation in Europe, based on experiences of three flagship projects, AI4EU, DIH4AI, and EUH4D. AI4EU is developing an AI on-demand platform, with actions spanning from technical interoperability to ecosystem building. Multiple further projects are expected to contribute to it and align with its outcomes, so that the platform becomes a reference for AI advancement in Europe. EUHD4 is building a federation of DIH that focus on data innovation, with the objective to provide data driven services and datasets through a federated catalogue, built on the principle of ‘European catalogue, local offer’. In fact, DIHs play a fundamental role in fostering adoption of data and AI technologies as well as in identifying new challenges coming from SMEs and startups. Thus, DIH4AI, which is bringing together AI with DIH, is an important tool to strengthen extension and adoption of AI technologies on the ground. The session will focus on two critical areas: technical (platforms, data, interoperability) and sustainability (future beyond the funding period)
Learn to enhance or develop databased services in a playful manner with the tool “Data Service Cards”. Within the workshop session we will show you how to identify and combine data sources, analysis methods, company and customer benefits and revenue opportunities systematically
Panel Diskussion
Vorstellung und Ausprobieren der Data Service Cards
Data science project often fail to identify the relevant true relationships in the data. For example, they fail to identify the true root causes for deviation in production processes. The causal perspective takes the data generation process into account. As a first step one needs to identify cases, where we observe correlations, which to not conform to the data generation process. Examples include spurious correlation, confounders, the Berkson's paradox and the Simpson's paradox.
In this short tutorial, we introduce the concept of a network (or graph) in its most common incarnations. We will discuss graph properties on a micro-level (e.g., node properties such as degree and centrality), meso-level (e.g., concepts such as clique or a community), and macro-level (such as graph diameter and assortativity). All these concepts will be illustrated with practical examples. In the hands-on part of this tutorial, the participants get the chance to construct graph objects from raw data, visualize such graph objects, and compute graph properties using existing libraries. Thus, at the end of the tutorial the participants have obtained (i) a basic understanding of the concept of a graph, (ii) knowledge of available quantitative measures for network analysis, (iii) capabilities to visualize graphs, (iv) capabilities to transform a graph into equivalent representations and vice versa, as well as (v) a basic understanding of Python libraries for network analysis. Prerequisites for this tutorial include basic math skills and, for the hands-on part, basic programming skills in Python and the ability to execute a provided Jupyter Notebook.
Most engineering domains abound with models that are derived from first principles and thathave proven to be effective for decades. These models are not only a valuable source ofknowledge, but they also form the basis of simulations using, e.g., the finite-element method.The recent trend of digitization has complemented these models by data in all forms andvariants, such as process monitoring time series, measured material characteristics, and storedproduction parameters. Theory-guided machine learning combines the available models anddata, reaping the benefits of both established knowledge and the capabilities of modern,data-driven approaches. The resulting models often are often more accurate, less complex,or allow faster model training or inference. In this talk, we introduce the most prominentapproaches to theory-guided machine learning and discuss some of their applications.
Sind Daten wirklich das neue Öl? In welchem Zusammenhang stehen sie zu KI? Im Vortrag werden diese Fragen im Kontext von Data-driven Business beleuchtet und diesbzgl. Projektbeispiele aus dem Gesundheitswesen vorgestellt.
Im Rahmen der Diskussion werden sowohl Chancen und Risiken einer Datendemokratisierung diskutiert als auch erörtert welche Schritte notwendig sind, um überhaupt eine Demokratisierung der Daten zu ermöglichen.
Daten werden oft als die Währung der Zukunft angesehen. Neue Technologien wie das mobile Internet, das Internet-of-Things (IoT) oder Cloud-Services generieren Unmengen von ihnen und werden es in Zukunft noch wesentlich stärker tun. Rohe Daten alleine bringen aber noch keinen Mehrwert - erst ihre Analyse lässt neue Erkenntnisse entstehen und sie als Wettbewerbsvorteil nutzen. Auch im Bereich der smarten Energieversorgung, wo sie eingesetzt werden können, um die Energiebereitstellung und den Energieverbrauch zu optimieren. Anhand von fünf Projekten aus dem Bereich Energieversorgung, bei denen das Know-Center beteiligt war, wird gezeigt wie Data Science hier unterstützen kann.
Was bedeutet es für Unternehmen KI-Technologien zu nutzen? In dem Vortrag werden die diesbzgl. Herausforderungen für Unternehmen erläutert und präsentiert mit welchem Beratungsansatz das Know-Center die Unternehmen hier unterstützen kann.
Im gemeinsamen Diskurs werden die Chancen und Risiken des Einsatz von künstlicher Intelligenz - im allgemeinen und im Kontext zur Cybersicherheit - anhand von Fragen, wie "Was steckt hinter KI?", "Ist KI bereits Realität, oder nur eine großartige Vermarktungsidee?", "Wie wird KI in der Realität bereits eingesetzt und wo sind ihre Grenzen?", diskutiert.
Everyone talks about digital transformation, nowadays especially AI. But what does that mean for a company? Is it just about acquiring and using new technical solutions, is it about hiring the right people or training appropriate skills? Or is it about something completely different? I will talk about the experiences in this regard from our cooperation as a research center with companies.
Im Vortrag wird das vom Know-Center neu ins Leben gerufene Gründerprogramm Take-Off vorgestellt.
Praxisbericht aus einem gemeinsamen Forschungsprojekt zwischen Meduni und Know-Center.
Die Veranstaltung gibt einen Einblick in die grundlegenden Konzepte von Big Data. Es werden technologische als auch organisatorische und prozessuale Aspekte von Big Data Analytics beleuchtet. In einer praktischen Übung entwerfen die Studierenden erste Anwendungsfälle rund um Big Data (data-driven Use Cases).
The session will explore the importance of data-driven AI for the financial sector by comparing the highly innovative and revolutionary world of Fintech companies with Financial Institutions, highlighting the peculiarities of the sector such as the paradigm of ethical AI. The session will cover topics related to Open Innovation Hubs and acceleration programs, to highlight the importance of innovation and the opportunities of Fintechs mentioning as well the VDIH (Virtualized Digital Innovation Hub), an innovative service developed within the INFINITECH project, a digital finance flagship H2020 project. Moreover, the findings and insights of the Whitepaper of the Task Force “AI and Big Data for the Financial Sector” will be presented, emphasizing market trends, vision, and the innovation impact of novel technologies on the financial sector. The session will end with a key-note speech by a representative from the Fintech District, the largest open ecosystem within the Italian fintech community, deepening the evolution of the fintech sector and sharing future insights and opportunities.
Zagreb Connect is coming! Croatia’s most prominent startup conference will feature talks on creating a successful startup, discussions about building a startup ecosystem and 12 Startup Factory teams‘ pitches battling for HRK 800.000. In 2021, we’re focusing on startups that are making a difference and ecosystems these startups stem from. The panel discussions will let you in on the well-known founders’ entrepreneurial journeys and visions of the future coming from individuals at the head of renowned startup ecosystems. Keynote speeches will inspire you. And we’re counting on Startup Factory final pitch competition to provide some serious suspense build-up
Das Learning Goal Widget visualisiert Lernziele und ermöglicht Studierenden, ihren selbst eingeschätzten Lernfortschritt aufzuzeichnen.
Kompetenzen sind Fähigkeiten und Fertigkeiten, um Probleme zu lösen, beinhalten aber auch die Bereitschaft, Problemlösungen in verschiedenen Situationen zu nutzen. Kompetenz setzt sich zusammen aus Wissen, Können und Wollen. Grundlegendes Wissen aus einem bestimmten Bereich ist für ein kompetentes Handeln nötig. Das Wissen anwenden zu können, ist der zweite Teilbereich von Kompetenzen und das Wissen anwenden und sich weiterentwickeln wollen ist der dritte Teilbereich. Literacy beschreibt den kompetenten Umgang mit der Sprache, also Lese- und Schreibkompetenzen, zur Verwirklichung der persönlichen Ziele. Unter AI-Literacy nach Long & Magerko2 versteht man ein Set von Kompetenzen zur effektiven Kommunikation mit AI und Nutzung von AI als Werkzeug. Hierbei ist ersichtlich, dass Kompetenzen eine wichtige Rolle spielen. Dabei wurden 17 Teilkompetenzen zusammengesetzt, die gemeinsam AI-Literacy konstituieren. Auf EU-Ebene kommt nach dem DigCompEdu3 Framework aus dem Bildungsbereich AI nicht explizit vor. Das Dig- Comp 2.14 Framework für europäische BürgerInnen und Bürger, wo AI ebenfalls nicht explizit erwähnt wird, wurde für die österreichische Ausführung herangenommen und DigComp 2.2 AT5 Framework genannt. In Österreich ist außerdem das digi.komp Frameworks von Bedeutung, in dem digitale Kernkompetenzen für die vierte, achte und zwölfte Schulstufe sowie für Pädagog*innen definiert werden. AI kommt hier in einem der vier Bereiche vor: Beim digi.komp 12 besteht ein Modul zu intelligenten Systemen, wo die TeilnehmerInnen über Unterschiede menschlicher und maschineller Intelligenz erfahren und intelligente Informationssysteme anzuwenden lernen.
MitarbeiterInnen sollen im Umgang mit KI geschult werden, um die Zusammenarbeit zwischen Menschen und KI zu ermöglichen, ihre Qualifikation zu erhöhen, die Akzeptanz zu fördern und Transparenz der Funktionsweise des Systems sicherzustellen. Ein technischen Grundverständnis der MitarbeiterInnen erleichtert den Umgang mit KI-Systemen und Verbesserungsvorschläge durch MitarbeiterInnen können für effizientere Prozesse sorgen. Der Vortrag beinhaltet konkrete Handlungsempfehlungen für Unternehmen und thematisiert das Verständnis des AI Begriffes und den Umgang mit Bias Problemen.
In this contribution, we will present the Learning Goal “Widget” that was co-designed by researchers, teachers and students within the TEL Marketplace program at TUG. It allows teachers to better structure their lecture content and students to easier track their learning progress along learning goals. Sustainably transforming digital education requires a human-centered approach, putting teachers and learners in the focus. We must co-design with them to address actual problems and increase the acceptance of educational technologies such as in the TU Graz Marketplace Innovation Program. One of its pilots, the Learning Goal “Widget” which visualizes learning goals of lectures in a sophisticated way, allows direct access to the learning content and offers a self-tracking mechanism to track the own learning progress. In co-design sessions, we offered lecturers support for improving their lecture by developing learning goals based upon a newly developed framework for formulating learning goals. In BarCamp sessions, we involved students to contribute to the design and functionality of the widget. These co-design activities including organizational, technological and practical stakeholders build the ground for a small widget becoming a central standard at TU Graz for the digital education.
In this contribution, we will present the Learning Goal “Widget” that was co-designed by researchers, teachers and students within the TEL Marketplace program at TUG. It allows teachers to better structure their lecture content and students to easier track their learning progress along learning goals. Sustainably transforming digital education requires a human-centered approach, putting teachers and learners in the focus. We must co-design with them to address actual problems and increase the acceptance of educational technologies such as in the TU Graz Marketplace Innovation Program. One of its pilots, the Learning Goal “Widget” which visualizes learning goals of lectures in a sophisticated way, allows direct access to the learning content and offers a self-tracking mechanism to track the own learning progress. In co-design sessions, we offered lecturers support for improving their lecture by developing learning goals based upon a newly developed framework for formulating learning goals. In BarCamp sessions, we involved students to contribute to the design and functionality of the widget. These co-design activities including organizational, technological and practical stakeholders build the ground for a small widget becoming a central standard at TU Graz for the digital education.
Digitale Innovationen werden oft nur im digitalen Raum und in der eigenen Community beworben und haben so eine begrenzte Reichweite. Daher ist es zentral, die Zielgruppen auch offline anzusprechen und zur Teilhabe im digitalen Raum zu motivieren. Der University Innovation Report tut genau das. In diesem „How to Make Use of“-Guide werden Ergebnisse von Pilotprojekten und Innovationsmethoden beschrieben und mittels QR Tags und Links mit interaktiven Inhalten in der digitalen Welt verknüpft.
The digital transformation leads to a profound and accelerating transformation of business activities, processes, competencies and significantly impacts work and society. Newly developed technology requires new attitudes and skills, shifting towards non-routine and knowledge-based jobs that increase the demand for tertiary education jobs with enhanced skills sets. The EU has recognized a significant and systemic gap between the market needs and what is offered in terms of skills and competencies related to advanced digital technologies. The lack of staff with the right skills as well as recruiting specialists with proper skills are both the main obstacles to new investment for businesses and innovation. Moreover, the fast pace of evolution of these technologies requires a constant and continuous update of the digital skills including those people already in employment. The existing offer for training and retrain the existing workforce seems not to be sufficient and it is not particularly tailored to meet the needs of SMEs. BDVA/DAIRO, being aware of this problem, has decided to organize a webinar to analyze the challenges that SMEs are facing regarding digital skills.
The Data Week is the spring gathering of the European Big Data and Data-Driven AI research and innovation community. This year, Data Week is held online from 25th to the 27th of May. It follows the tradition of the Big Data Value Summit, promoting opportunities, knowledge sharing and fostering Big Data and Data-Driven AI ecosystem development.
An introduction to educational chatbots, focussing on Rebo, the reflection guidance chatbot.
Rebo, the Reflection Guidance Chatbot: A conversational agent for apprentices to reflect on practical learning experiences
An introduction to the relationship between text, discursive practice and social practice, and how to (critically) analyse discourse.
A conversational agent for apprentices to reflect on practical learning experiences
- Digitale Transformation durch Datenanalyse und Anwendung von Künstlicher Intelligenz – wie geht das? - Die Verbindung von digitaler und analoger Welt, von Menschen und Maschinen - Neue Möglichkeiten für einen sicheren Datenaustausch – nur so gelingen Kooperationen in der digitalisierten Welt - Wie kann ich mein Innovationsrisiko abfedern? Möglichkeiten zur (geförderten) Kooperation mit dem Know-Center
The last decade has been disruptive for Agriculture due to the new frontiers opened by data acquisition, processing and analysis technologies. Breakthrough technologies such as drones, the Internet of Things, multispectral cameras, Cloud Computing and artificial intelligence are a reality that is now available for farmers. Among other advantages, these technologies can minimize crop's damages caused by different meteorological phenomena, such as frost and storms. In this case, weather data can be collected using IoT devices like wireless sensors and streamed to the Cloud in real-time. As soon as the data are available in the Cloud, AI algorithms can analyze them and provide valuable analytics about frost occurrences. Then, the analytics are used by farmers and specialists to activate different frost deference methods like wind machines or sprinklers. Besides the above example, other problems in Agriculture can be faced using these technologies. Some of them are pest and diseases early detection, yield forecasting, etc. In summary, thanks to modern technologies, it's possible to enhance the quality of crops and the economic benefits of small, medium and large agricultural producers. This presentation will detail the latest trends about the technologies that specialists and farmers can use to acquire, process and analyze data in agriculture, specifically, the ones focused on Frost Predictions and Frost damages minimization on vineyards. We will also provide concrete examples of our experiences and research applying technologies to reduce frost damages and economic losses on Vineyards located in the Province of Mendoza, Argentina.
Talk & Workshop
Als aktives Mitglied sowohl der AI Styria als auch der AI Austria wird Know-Center durch Gert Breitfuss vertreten sein, der einen praktischen Einblick und Ausblick auf datengetriebene Geschäftsmodelle geben wird. Er zeigt, wie mit praxiserprobten Werkzeugen und Methoden (z.B. Data Map, Data Product Canvas, 40 Daten-Service-Cards), aus Daten innovative Services und Geschäftsmodelle entstehen können. Diese Methoden werden auch regelmäßig in den Geschäftsmodell-Innovationsprojekten des Know-Center eingesetzt.
Information dimension of random variables was introduced by Alfred Renyi in 1959. Only recently, information dimension was shown to be relevant in various areas in information theory. For example, in 2010, Wu and Verdu showed that information dimension is a fundamental limit for lossless analog compression. Recently, Geiger and Koch generalized information dimension from random variables to stochastic processes. They showed connections to the rate-distortion dimension and to the bandwidth of the process. Specifically, if the process is scalar and Gaussian, then the information dimension equals the Lebesgue measure of the support of the process' power spectral density. This suggests that information dimension plays a fundamental role in sampling theory. The first part of the talk reviews the definition and basic properties of entropy and information dimension for random variables. The second part treats the information dimension of stochastic processes and sketches the proof that information dimension is linked to the process' bandwidth.
Nach einer Einführung in die datengetriebene künstliche Intelligenz diskutieren wir gemeinsam Anwendungsbeispiele zur Wertschöpfung durch Daten und identifizieren Erfolgsfaktoren für unterschiedliche Unternehmensgrößen und Marktsegmente.
Daten sind heute die zentrale Ressource für wirtschaftlichen Erfolg. Die zunehmende Digitalisierung generiert immer mehr Daten in allen Bereichen der Wirtschaft und Industrie, aber oft wird deren Potential nicht wirklich genutzt. In dem Vortrag sollen kurz die Möglichkeiten einer datengetriebenen Wertschöpfung aufgezeigt sowie erläutert werden, wie dies mit Big Data und KI in Zusammenhang steht.
Aus Erfahrung wird man klug?! Was künstliche Intelligenz wirklich (im Qualitätsmanagement) leisten kann
Ein Blick in die Zukunft: Neue Technologien und Digitalisierung Welche Vor- und Nachteile ergeben sich? Neugierde oder Angst – Welcher Zugang ist sinnvoller? Wie können neue Technologien im WM und QM unterstützend eingesetzt werden?
Assistive Intelligence and the Know-Center Knowledge Cycle
Gemeinsam, aber doch verteilt miteinander zu arbeiten stellt jedoch elementare Herausforderungen an sowohl die Organisation als auch deren MitarbeiterInnen. Viele davon sind nach wie vor noch nicht adäquat gelöst, denn erfolgreiche Zusammenarbeit ist mehr als die einfache Bereitstellung von beispielsweise Intranets und Netzlaufwerken, und erfordert außerdem völlig neue Kompetenzen (und damit verbunden lebenslanges Lernen), die nun natürlich auch zu Hause trainiert und gefestigt werden müssen. Thema dieses Vortrages sind daher Problemstellungen und aktuelle Lösungsvorschläge aus Forschung und Praxis im Bereich gemeinsames Lernen und Arbeiten, wie beispielsweise: Unternehmensweiter Wissenskreislauf Artifical / Assistive Intelligence zur Unterstützung aktueller Prozesse und Entscheidungen sowie Lernen am Arbeitsplatz mit speziellem Fokus auf verteilte Teams und Organisationen (beispielsweise im Home Office).
In this presentation we will discuss some topics related with time series in precision agriculture. Those topics include the technologies used for data acquisition and for data processing. Furthermore, we will present some of our works in the field of precision agriculture, particularly the frost prediction in vineyards. These works details the use of time series, sensor networks, cloud computing and drones, among other technologies.
Immersive Computing for the Digital Industry is a workshop aiming to set up a Think Tank Lab on the topic of digitalization and data driven immersive applications. Immersive technologies are increasingly becoming a key industrial asset for showcasing products, installations, as well as for training personnel. The goal of the workshop is to explore the technologies needed to enable realistic experiences of industrial applications that incorporate large volumes of data from sensors in the real-world. In this frame, the workshop will expose wearable feedback technologies such as glasses and haptics displays, wearable sensors like eye-tracking, and current trends in immersive applications, e.g., logistics, telepresence, training, and analytics. Together with the attendees, a new landscape will be developed for the next generation immersive computing applications in the digital industry. To do so, we will engage in a workshop, discussing what are the scenarios that benefit from immersive technology in each area of industrial application. We will explore how existing technologies can be used in each case and draw a roadmap for the missing aspects. Finally, we will draft together an ambitious plan towards deploying the next generation immersive applications in the future Graz Immersive Computing Think Tank Lab.
Warum zur Hölle erkennt mein neuronales Netz die Maus auf dem Bild als Mülleimer? Manchmal ist es nicht offensichtlich, wie ein neuronales Netz zu seinen Entscheidungen kommt. Es gibt allerdings Methoden, um das herauszufinden: XAI oder Explainable AI. Wie das funktioniert, wird uns Jörg Simon erläutern und zwar in einem Livestream auf Twitch. Jörg macht gerade seinen PhD im Bereich Human Factors und wenn er nicht gerade ein Paper vorbereiten muss, spielt er auch D&D.
Eine Übersicht und Tutorial über Interpretationsmethoden für Zeit Serien Analyse mit Deep Learning. LSTM, WaveNet, TCN, Transformers, Sequence2Sequence, Encoder/Decoder, Klassifikation, … DeepLearning bietet viele Tools für das Arbeiten mit Zeitserien Daten an. In dem Talk gibt Jörg Simon eine Übersicht wie man herausfinden kann was diese Methoden lernen. Dazu gibt es auch ein Jupyter Notebook. Jörg macht gerade seinen PhD im Bereich Human Factors und wenn er nicht gerade ein Paper vorbereiten muss, spielt er auch D&D, im Moment halt online
A tutorial for explainability (attribution, max activation, filters) and examples of use in automotive
Neural networks are among the most powerful and the least understood machine learning architectures. Recently, information theory has been used to open these proverbial "black boxes". This talk starts with a brief, superficial introduction to neural networks before giving an overview of recent information-theoretic approaches to understand and characterize neural networks. Finally, we will investigate how the importance of individual neurons can be quantified with information quantities.
Session 2: Mit Chatbots diskutieren – Digitale Lernbegleiter (Mag.a Irmtraud Wolfbauer, Assoc. Prof. Dr. Viktoria Pammer-Schindler) Digitale Lernbegleiter kommen dort zum Einsatz wo die Zeit und Aufmerksamkeit von Lehrer_innen und Trainer_innen begrenzt ist. Uns interessiert, den Rahmen des Möglichen auszuloten: Wie gut können digitale Lernbegleiter sein? Unser aktueller Fokus: Reflektierte Gespräche über Arbeiten und Lernen. In dieser Session berichten und zeigen wir Chatbot „Rebo“, mit welchem Lehrlinge schrittweise ihre Lern- und Arbeitsaufgaben besprechen (=reflektieren) können. Die dem Chatbot zugrunde liegende Dialogstruktur „Rebo Junior“ wird in einer Serie laufender Feldstudien mit Lehrlingen in den Bereichen Metall, Mechatronik und Elektrotechnik getestet und verbessert. Die kommunikative Anleitung zur Reflexion in Form eines Chats ist zugänglich, selbsterklärend und veranschaulicht den angehenden Facharbeiter_innen, wie zentral die Rolle des Lernens in ihrer praktischen Berufsausbildung ist. Vorher: Wir befassen uns mit dem Thema „Reflexion“ als essentielle Lernkompetenz und entwickeln Technologien, die Lernende zu strukturierter Reflexion von Lernerfahrungen anleiten. Mit Chatbot „Rebo“ arbeiten wir am ersten Reflection Guidance Chatbot, der Lernende sukzessive durch definierte Reflexionsebenen leitet. Die dem Chatbot zugrunde liegende Dialogstruktur „Rebo Junior“ wird in einer Serie laufender Feldstudien mit Lehrlingen in den Bereichen Metall, Mechatronik und Elektrotechnik getestet und verbessert. Gerade in Zeiten, in denen gemeinsam Reflexion mit Lehrenden und Ausbildenden rar ist, glauben wir mit unserem digitalen Lernbegleiter einen wertvollen Beitrag zur Qualität der Lehrlingsausbildung zu leisten. Die kommunikative Anleitung zur Reflexion in Form eines Chats ist zugänglich, selbsterklärend und veranschaulicht den angehenden Facharbeiter_innen, wie zentral die Rolle des Lernens in ihrer praktischen Berufsausbildung ist.
Session 1: From a knowledge society to a competence society or just “Panta rhei…” (Katharina Maitz, MA – kmaitz@know-center.at; Dr. Angela Fessl – afessl@know-center.at) Competences are skills and abilities to solve specific problems and to be able and willing to use problem solutions successfully in variable situations. Accordingly, competence-oriented training and further education aims to enable employees to master their tasks in the trained specialist area independently and in different contexts. In addition, competence-based learning requires a changed understanding of the roles of teachers and learners, in that the learners are given more personal responsibility and the teachers take on a supporting role. As a (COMET) research centre, we can draw on expertise from research and industry-related projects and support companies on their way to competence-oriented training and further education. In these projects, practical problems are dealt with in real action contexts using a wide variety of methods. Some of these methods and projects will be presented and discussed together in this presentation.
Informations- und Kommunikationstechnologien sind die primären Treiber der digitalen Transformation. Die Lehrveranstaltung gibt einen Einblick in die grundlegenden Konzepte von datengetriebenen Zukunftstechnologien. Die Studierenden sollen Kenntnisse über die Möglichkeiten zur Verwertung von (Big) Data durch die Anwendung von Artificial Intelligence (AI), insbesondere Machine Learning und Deep Learning, sowie Augmented und Virtual Reality (AR bzw. VR) erlangen.
Datengetriebene Geschäftsmodelle versprechen neue Wertschöpfungsmöglichkeiten für Unternehmen. Den Studierenden werden die entsprechenden Grundkonzepte nähergebracht und im Anschluss in Online-Gruppenübungen weiter vertieft. Zusätzlich werden anhand von Praxisbeispielen Herangehensweisen, Chancen und Risiken bei der Umsetzung von datengetriebenen Use Cases vorgestellt und diskutiert.
Der LSZ CIO-Kongress ist eine IT-Veranstaltung in Österreich und kommt dem unmittelbaren Informations- und Erfahrungsaustausch von CIOs und Managern aus Fachabteilungen untereinander, sowie CIOs/CxOs mit den Experten der Anbieter- und Dienstleistungsunternehmen entgegen. Die insgesamt mehr als 450 Teilnehmer sind aufgefordert, ihr Fachwissen in den Arbeitskreisen sowie in den zahlreichen sonstigen Diskussionsrunden – nach dem Open Space-Prinzip einzubringen.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Data-driven business models is a hot topic in today’s business world and one needs to stay abreast of the new trends and concepts in order to profit exponentially. In our summer academy session, we will give practical insight and outlook of Data-driven business models. We will present how data can be transferred into business value using field-tested tools and methods (e.g. Data Value Check, Data Product Canvas, 40 Data Service Cards) which are regularly used in the Know-Center’s Business Model Innovation projects. There will be time for discussion. Your input and your feedback will be highly appreciated! We are looking forward to seeing you there.
Data-driven business models is a hot topic in today’s business world and one needs to stay abreast of the new trends and concepts in order to profit exponentially. In our summer academy session, we will give practical insight and outlook of Data-driven business models. We will present how data can be transferred into business value using field-tested tools and methods (e.g. Data Value Check, Data Product Canvas, 40 Data Service Cards) which are regularly used in the Know-Center’s Business Model Innovation projects. There will be time for discussion. Your input and your feedback will be highly appreciated! We are looking forward to seeing you there.
Informations- und Kommunikationstechnologien sind die primären Treiber der digitalen Transformation. Die Lehrveranstaltung gibt einen Einblick in die grundlegenden Konzepte von datengetriebenen Zukunftstechnologien. Die Studierenden sollen Kenntnisse über die Möglichkeiten zur Verwertung von (Big) Data durch die Anwendung von Artificial Intelligence (AI), insbesondere Machine Learning und Deep Learning, sowie Augmented und Virtual Reality (AR bzw. VR) erlangen.
Datengetriebene Geschäftsmodelle versprechen neue Wertschöpfungsmöglichkeiten für Unternehmen. Den Studierenden werden die entsprechenden Grundkonzepte nähergebracht und im Anschluss in Online-Gruppenübungen weiter vertieft. Zusätzlich werden anhand von Praxisbeispielen Herangehensweisen, Chancen und Risiken bei der Umsetzung von datengetriebenen Use Cases vorgestellt und diskutiert.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Daten sind Ressourcen, die in Unternehmen zuhauf vorhanden sind aber oft nicht wirklich genutzt werden. Gerade jetzt bietet es sich an darüber nachzudenken, wie man aus Daten einen Zusatznutzen generiert und damit neue Möglichkeiten für sein Unternehmen schafft. In unserem Info-Talk besprechen wir: Chancen von Data-driven Business Der Data Value Check als Weg zu datengetriebenen Use Cases Kundenerfahrungen mit dem Data Value Check Und natürlich Ihre Fragen zum Thema.
Vorstellung des aktuellen Standes des EU Projekt Safe-DEED mit Schwerpunkt auf die bestehenden Demonstratoren und DDBM Tools
When we talk to industry and partners, we see the problem that it takes months to discover some relationship between two physical kinds of properties and to understand them from the beginning
Machine learning (ML) applications become increasingly common in many domains. Existing ML systems to execute these workloads include numerical computing frameworks, ML algorithm libraries, and more specialized deep neural network frameworks. These systems focus primarily on efficient model training and scoring. However, the data science process is exploratory, and deals with underspecified objectives, a range of different algorithms, and a wide variety of heterogeneous data sources with various errors and inconsistencies. Therefore, additional tools are employed for data engineering, exploration, and debugging, which requires boundary crossing, unnecessary manual effort, and lacks optimization across the lifecycle. This talk introduces Apache SystemDS, an open source ML system for the end-to-end data science lifecycle from data integration, cleaning, and preparation, over local and distributed model training, to debugging and serving. In a first part, we describe the overall system architecture and major design decisions that are motivated by lessons learned from Apache SystemML. In a second part, we then share early ideas and preliminary results of selected features including (1) lineage-based reuse of intermediates, (2) federated ML over raw data, and (3) the automatic tuning of data cleaning pipelines. The workshop solicits regular research papers describing preliminary and ongoing research results. In addition, the workshop encourages the submission of industrial experience reports of end-to-end ML deployments. Submissions can be short papers (4 pages) or long papers (up to 10 pages, plus unlimited references) following the ACM proceedings format (last update 11/2020).
Die Assistentin für die individuelle Betreuung älterer Menschen. Emma bietet Hilfestellung in verschiedenen Lebensbereichen älterer Menschen, um deren Selbständigkeit in den eigenen vier Wänden zu erhalten. Sicherheit und bestes Service steht dabei im Vordergrund. Emma organisiert den Alltag und schafft Wohlfühlzeit und Sicherheit für die ganze Familie.
Short presentation of Know-Center's portfolio on the basis of a use case from the everyday life of a person in the future
Products fueled by data and machine learning can be a powerful way to solve users‘ needs. The opportunity extends far beyond the tech giants: companies of a range of sizes and across sectors are investing in their own data-powered products and business models. But the data component adds an extra layer of complexity. To tackle the challenge, companies should emphasize cross functional collaboration, evaluate and prioritize data product opportunities with an eye to the long-term, and start simple.
Die Möglichkeiten und Unmöglichkeiten der KI Unterstützung
Die Möglichkeiten und Unmöglichkeiten der KI Unterstützung
Die Möglichkeiten und Unmöglichkeiten der KI Unterstützung
What's the conection between a chatbot and AI? The keynote gives an overview about the current state of AI as well as discusses research directions and future challenges of AI.
Panel discussion with representants from industry, public services and research about the impact of AI for Austrian economy
Field studies as evaluation method for socio-technical interventions in Technology-Enhanced Learning. Much research in TEL is design work – i.e., the research team designs an intervention that is intended to support learning. This intervention needs to be evaluated to show the extent to which this goal has been reached; and to gain additional insights that are sought for. Field studies are one main type of evaluations. They are challenging to set up; and in case of a bad study design cannot be easily repeated due to the effort and cost of running a field study. The goal of this lecture and workshop is To provide a blueprint for field studies as evaluation method for socio-technical interventions in technology enhanced learning To present a hierarchical principle of evaluating learning interventions– based on Kirkpatrick & Kirkpatrick: Usage/observable activities – Learning – Impact on task/work performance – Impact on organization (in workplace learning/applicable to settings in which individual learning impacts a wider social entity) To have students plan a field study for their own PhD in rough lines individually To discuss their plans with peers and the lecturer, as well as other senior researchers who may be present – i.e., students will get feedback on their own plan The blueprint for field studies is to evaluate in a hierarchy of research questions/evaluation level: First, one assesses the observable (learning) activities that are carried out – in particular how and whether participants adhered to the prescribed intervention; this helps understand the success of the intervention and it is possible to identify problems. Second, one assesses concrete learning outcomes – insights that are generated. Thirdly, one assesses a change in behaviour, and fourthly a change in performance. In parallel, a mix of qualitative and quantitative methods should be used – this allows on the one hand statistical comparison (pre/post; between groups). On the other hand, one can get in depth explanatory insights.
(This is joint work with Rana Ali Amjad from Technical University of Munich.) The information bottleneck theory of neural networks has received a lot of attention in both machine learning and information theory. At the heart of this theory is the assumption that a good classifier creates representations that are minimal sufficient statistics, i.e., they share only as much mutual information with the input features that is necessary to correctly identify the class label. Indeed, it has been claimed that information-theoretic compression is a possible cause of generalization performance and a consequence of learning the weights using stochastic gradient descent. On the one hand, the claims set forth by this theory have been heavily disputed based on conflicting empirical evidence: There exist classes of invertible neural networks with state-of-the-art generalization performance; the compression phase also appears in full batch learning; information-theoretic compression is an artifact of using a saturating activation function. On the other hand, several authors report that training neural networks using a cost function derived from the information bottleneck principle leads to representations that have desirable properties and yields improved operational capabilities, such as generalization performance and adversarial robustness.In this work we provide yet another perspective on the information bottleneck theory of neural networks. With a focus on training deterministic (i.e., non-Bayesian) neural networks, we show that the information bottleneck framework suffers from two important shortcomings: First, for continuously distributed input features, the information-theoretic compression term is infinite for almost every choice of network weights, making this term problematic during optimization. The second and more important issue is that the information bottleneck functional is invariant under bijective transforms of the representation. Optimizing a neural network w.r.t. this functional thus yields representations that are informative about the class label, but that may still fail to satisfy desirable properties, such as allowing to use simple decision functions or being robust against small perturbations of the input feature. We show that there exist remedies for these shortcomings: Including a decision rule or softmax layer, making the network stochastic by adding noise, or replacing the terms in the information bottleneck functional by more well-behaved quantities. We conclude by showing that the successes reported about training neural networks using the information bottleneck framework can be attributed to exactly these remedies.
Adaptive reflection guidance can be understood as a specific kind of intelligent tutoring systems – as a kind of intelligent mentoring systems, as envisaged by Dimitrova (2006). These systems don’t encode to a very fine-granular degree domain knowledge, and learning strategies, but support the learner in developing the capability to learn in a self-directed manner; and in to learn about a particular learning domain. In this lecture and demo, I will show a concrete modular in-app reflection guidance framework, and its instantiation in different research prototypes (Fessl et al., 2017). I will also discuss how such a system relates to the very wide fields of intelligent tutoring systems and adaptive and context-aware systems in general; inheriting open challenges from each of these fields. In particular, it connects to promising fields of future TEL research in finding the sweet spot between human and artificial intelligence.
Panel discussion with representants from industry, public services and research about the application of AI in tourism (I stepped in for Wolfgang Kienreich)
Der Vortrag beleuchtet den Status Quo von AI bzw. versucht das Thema auf den Boden der Tatsachen zu bringen. Folgende Punkte behandelt der Vortrag: (i) Geschichte der AI, (ii) Fähigkeiten der KI heute und (iii) zukünftige Entwicklungen der KI aus Forschungssicht.
Kombination aus Vortrag und Workshop - Ideengenerierung von daten-getriebenen Use Case zur Verbesserung des öffentlichen Verkehrs
Kombination aus Vortrag und Workshop - Ideengenerierung von daten-getriebenen Use Case zur Verbesserung des öffentlichen Verkehrs
Kombination aus Vortrag und Workshop - Ideengenerierung von daten-getriebenen Use Case zur Verbesserung des öffentlichen Verkehrs
"Quergedacht" ist eine Veranstaltungsreihe, bei der MitarbeiterInnen der Energie Graz innovative Themen und aktuelle Fragestellungen nähergebracht werden. Bei dem Vortrag wurde das Thema Künstliche Intelligenz präsentiert, wobei versucht wurde aufzuzeigen wo wir heute mit der – datengetriebenen – KI stehen (d.h. was KI heute kann und was nicht) und wohin die Reise aus Forschungssicht geht.
Visual analytics (VA) research provides helpful solutions for interactive visual data analysis when exploring large and complex datasets. Due to recent advances in eye tracking technology, promising opportunities arise to extend these traditional VA approaches. Therefore, we discuss foundations for eye tracking support in VA systems. We first review and discuss the structure and range of typical VA systems. Based on a widely used VA model, we present five comprehensive examples that cover a wide range of usage scenarios. Then, we demonstrate that the VA model can be used to systematically explore how concrete VA systems could be extended with eye tracking, to create supportive and adaptive analytics systems. This allows us to identify general research and application opportunities, and classify them into research themes. In a call for action, we map the road for future research to broaden the use of eye tracking and advance visual analytics.
Agile, global enterprises need accurate and readily available information about customers, markets and competitors to formulate strategic decisions. We apply our expertise in collecting and processing information from open and closed sources to support key strategic functions such as technology observation, business intelligence and patent analysis. We provide design and implementation of innovative search solutions and intelligent dashboards that visually capture and present relevant information and support the data-driven decision-making process. Automated Intelligence is now more than ever an important side of the future of data analytics, therefore we apply multiple techniques for the automation of data processing and analysis through the usage of the latest machine learning and artificial intelligence algorithms. We present several successful use cases of our strategic intelligence partnerships and future directions.
Successful Use cases for Competitive Intelligence Approaches to Automation of Information Processing to Gain Competitive Insights Future directions and the importance of AI and Deep Learning
Give you an overview on Competitive Intelligence. Introduce a framework for Innovation from Uberbrands. Present Know-Center competencies and case studies. Discuss your challenges and collaboration possibilities.
Proficiency in any form of reading requires a considerable amount of practice. With exposure, people get better at recognising words, because they develop strategies that enable them to read faster. This paper describes a study investigating recognition of words encoded with a 6-channel vibrotactile display. We train 22 users to recognise ten letters of the English alphabet. Additionally, we repeatedly expose users to 12 words in the form of training and reinforcement testing. Then, we test participants on exposed and unexposed words to observe the effects of exposure to words. Our study shows that, with exposure to words, participants did significantly improve on recognition of exposed words. The findings suggest that such a word exposure technique could be used during the training of novice users in order to boost the word recognition of a particular dictionary of words.
This paper proposes methods of optimising alphabet encoding for skin reading in order to avoid perception errors. First, a user study with 16 participants using two body locations serves to identify issues in recognition of both individual letters and words. To avoid such issues, a two-step optimisation method of the symbol encoding is proposed and validated in a second user study with eight participants using the optimised encoding with a seven vibromotor wearable layout on the back of the hand. The results show significant improvements in the recognition accuracy of letters (97%) and words (97%) when compared to the non-optimised encoding.
Previous research has demonstrated the feasibility of conveying vibrotactile encoded information efficiently using wearable devices. Users can understand vibrotactile encoded symbols and complex messages combining such symbols. Such wearable devices can find applicability in many multitasking use cases. Nevertheless, for multitasking, it would be necessary for the perception and comprehension of vibrotactile information to be less attention demanding and not interfere with other parallel tasks. We present a user study which investigates whether high speed vibrotactile encoded messages can be perceived in the background while performing other concurrent attention-demanding primary tasks. The vibrotactile messages used in the study were limited to symbols representing letters of English Alphabet. We observed that users could very accurately comprehend vibrotactile such encoded messages in the background and other parallel tasks did not affect users performance. Additionally, the comprehension of such messages did also not affect the performance of the concurrent primary task as well. Our results promote the use of vibrotactile information transmission to facilitate multitasking.
De la mano de tecnologías como aprendizaje maquinal y redes neuronales, las aplicaciones de inteligencia artificial se han transformado en la solución preferente al tratar con grandes cantidades de datos. En esta charla propongo revisar cómo se diseñan los sistemas interactivos y el funcionamiento de mecanismos de inteligencia artificial que se sirven de datos de la interacción humano-máquina. Se presentará el tema con ejemplos de seguridad de redes, y de nuevos sistemas de wearable computing. En el area de seguridad de redes, se utilizan sistemas de detección de intrusos los cuales deben ser entrenados con datos que describen el comportamiento hostil en función de las características observables de la red. Un experto humano se encarga de asociar un comportamiento malicioso con ciertas características de la red. Presentaremos un sistema que aprende el modelo de detección en tiempo casi real a medida que el experto etiqueta datos y a la vez comunica resultados de sus predicciones al experto. En el caso de wearable computing, presentaremos aplicaciones de aprendizaje maquinal para adaptar mecanismos de feedback táctiles.
Der LSZ CIO-Kongress ist eine IT-Veranstaltung in Österreich und kommt dem unmittelbaren Informations- und Erfahrungsaustausch von CIOs und Managern aus Fachabteilungen untereinander, sowie CIOs/CxOs mit den Experten der Anbieter- und Dienstleistungsunternehmen entgegen. Die insgesamt mehr als 450 Teilnehmer sind aufgefordert, ihr Fachwissen in den Arbeitskreisen sowie in den zahlreichen sonstigen Diskussionsrunden – nach dem Open Space-Prinzip einzubringen.
held on behalf of S. Lindstaedt; with contributions from G. Pirker (LEC GmbH)
Im Rahmen der moderierten Themeninsel, wird das Thema AI und seine Einsatzmöglichkeiten näher beleuchtet und diskutiert: "Was geht heute schon mit AI?", "Wo sind die Grenzen von AI", "Wie gehe ich ein AI Projekt an?", "Was könnte ein datengetriebener AI Use Case sein?"
Gezielte Beschaffung von Informationen nach wie vor elementare Herausforderung: MitarbeiterInnen wollen aktuellste und vollständige Informationen zur Bewältigung ihrer Tasks bekommen! Ziel muss es daher sein, bestehendes und neues (Prozess- und Experten)Wissen so zu erheben und zu vernetzen, dass es proaktiv in passenden Prozessen oder Tasks angeboten werden kann, und damit beispielsweise für eine signifikante Reduktion der Bearbeitungszeit bei gleichzeitiger Hebung der Bearbeitungsqualität und Compliance sorgt.
Discussion points: · Brief overview/summary of data management infrastructures and governance in industry · How prepared/interested are companies for/in the European Open Science Cloud (EOSC) · Relevance of FAIR principles for industry · Challenges & possible solutions – University & industry cooperation in terms of sharing (research) data Participants: Prof. Stefanie Lindstaedt, CEO, Know-Center & Head of Institute of Interactive Systems and Data Science, TUG - Chair Ass.Prof. Viktoria Pammer-Schindler, Data-Driven Business, TUG & Know-Center Christof Wolf-Brenner, Big Data Consultant, Know-Center Andre Perchthaler, Director, Global Transportation Solutions, NXP Semiconductors Dr. Josiane Xavier Parreira, Siemens Corporate Technology
Uncover hidden suppliers and their complex relationships across the entire Supply Chain is quite complex. Unexpected disruptions, e.g. earthquakes, volcanoes, bankruptcies or nuclear disasters have a huge impact on major Supply Chain strategies. It is very difficult to predict the real impact of these disruptions until it is too late. Small, unknown suppliers can hugely impact the delivery of a product. Therefore, it is crucial to constantly monitor for problems with both direct and indirect suppliers.
Agile, global enterprises need accurate and readily available information about customers, markets and competitors to formulate strategic decisions. We apply our expertise in collecting and processing information from open and closed sources to support key strategic functions such as technology observation, business intelligence and patent analysis. We provide design and implementation of innovative search solutions and intelligent dashboards that visually capture and present relevant information and support the data-driven decision-making process. Automated Intelligence is now more than ever an important side of the future of data analytics, therefore we apply multiple techniques for the automation of data processing and analysis through the usage of the latest machine learning and artificial intelligence algorithms. We present several successful use cases of our strategic intelligence partnerships and future directions.
Uncover hidden suppliers and their complex relationships across the entire Supply Chain is quite complex. Unexpected disruptions, e.g. earthquakes, volcanoes, bankruptcies or nuclear disasters have a huge impact on major Supply Chain strategies. It is very difficult to predict the real impact of these disruptions until it is too late. Small, unknown suppliers can hugely impact the delivery of a product. Therefore, it is crucial to constantly monitor for problems with both direct and indirect suppliers.
Uncover hidden suppliers and their complex relationships across the entire Supply Chain is quite complex. Unexpected disruptions, e.g. earthquakes, volcanoes, bankruptcies or nuclear disasters have a huge impact on major Supply Chain strategies. It is very difficult to predict the real impact of these disruptions until it is too late. Small, unknown suppliers can hugely impact the delivery of a product. Therefore, it is crucial to constantly monitor for problems with both direct and indirect suppliers.
This paper explores the use of reinforcement learning (RL) models for autonomous racing. In contrast to passenger cars, where safety is the top priority, a racing car aims to minimize the lap-time. We frame the problem as a reinforcement learning task with a multidimensional input consisting of the vehicle telemetry, and a continuous action space. To find out which RL methods better solve the problem and whether the obtained models generalize to driving on unknown tracks, we put 10 variants of deep deterministic policy gradient (DDPG) to race in two experiments: i) studying how RL methods learn to drive a racing car and ii) studying how the learning scenario influences the capability of the models to generalize. Our studies show that models trained with RL are not only able to drive faster than the baseline open source handcrafted bots but also generalize to unknown tracks.
In this talk we showed how the Data Value Check - a systematic approach and methodology developed by the Know-Center to generate data-driven use cases - helped our partner Reval Austria to identify AI based opportunities for their SW product. One of this uses cases was finally implemented in Reval's SW and released as a new feature.
Three core areas in data-driven business: Data-driven business models, Knowledge management, Technology enhanced learning. Digitalising apprenticeship training Learning Guidance, Chatbots and Learning Analytics Use Case: An online learning platform for apprentices. Research opportunities: Target group is under-researched 1. Computer usage & ICT self-efficacy 2. Communities of practice, identities as learners Reflection guidance technologies 3. Rebo, the reflection guidance chatbot
This keynote speech discusses the role of AI at the intersection of “Data world” and “Knowledge world”. It will emphasize the challenges with current data-driven technologies and AI, and how challenging it is to bring the two aspects – (i) extracting knowledge from data and (ii) using knowledge (domain know-how) to analyze data, together in an efficient and beneficial way.
Identifying and realising value within data helps organisations to unlock unused business potentials. With the amounts of generated data increasing by the minute, it is essential to identify the most promising use-cases. The Know-Center offers the Data Value Check, a guided process designed to help companies on their journey to become data driven. Oliver Pimas from Know-Center GmbH will present a keynote about identifying and evaluating promising data driven use-cases.
Contrastive loss terms allows someone to learn good representations in DeepLearning without labels based on the data alone. This can be used in a later stage f.e. to train classifiers with a greatly (about 100 times) reduced need in labels. F.e. the xent loss learns by data augmentation and negative sampling good representations in an unsupervised manner. We show how to use this loss and train a network, present choices for data augmentation, and discuss where it's useful or not, and present some use cases the presenters worked on with the term
Declarative machine learning (ML) aims to simplify the development and usage of large-scale ML algorithms. In SystemML, data scientists specify ML algorithms in a high-level language with R-like syntax and the system automatically generates hybrid execution plans that combine single-node, in-memory operations and distributed operations on Spark. In a first part, we motivate declarative ML and provide an up-to-date overview of SystemML including its APIs for different deployments. Since it was rarely mentioned before, we specifically discuss a programmatic API for low-latency scoring and its usage in containerized and data-parallel environments. In a second part, we then discuss selected research results for large-scale ML, specifically, compressed linear algebra (CLA) and automatic operator fusion. CLA aims to fit larger datasets into available memory by applying lightweight database compression schemes to matrices and executing linear algebra operations directly on the compressed representations. In contrast, automatic operator fusion aims at avoiding materialized intermediates and unnecessary scans, as well as sparsity exploitation by optimizing fusion plans and generating code for these custom fused operators. Together, CLA and automatic operator fusion achieve significant end-to-end improvements as they address orthogonal bottlenecks of large-scale ML algorithms.
Machine learning (ML) applications profoundly transform our private lives and many domains such as health care, finance, transportation, media, logistics, production, and information technology itself. As motivation and background, we will first share lessons learned from building Apache SystemML for declarative, large-scale ML. SystemML compiles R-like scripts into hybrid runtime plans of local, in-memory operations on CPUs and GPUs, as well as distributed operations on data-parallel frameworks like Spark. This high-level specification simplifies the development of ML algorithms, but lacks support for important tasks of the end-to-end data science liefcycle and users with different expertise. Set out to overcome these limitations, we introduce SystemDS, a new open-source ML system that aims to support the end-to-end data science lifecycle from data integration, cleaning, and feature engineering, over efficient local, distributed, and federated ML model training, to deployment and serving. In this talk, we will present the preliminary system architecture including the language abstractions and underlying data model, as well as selected features such as fine-grained lineage tracing and its exploitation for model versioning, reusing intermediates, and debugging model training runs.
Digitalization affects almost all areas of modern life and is starting to permeate the energy sector. As digital technologies are rapidly changing there are many challenges to overcome. One of them is dealing with complex data, which can be attempted by applying the data value chain concept
Bei dem Betrieb von Ladestationen fallen naturgemäß große Datenmengen an. Gemeinsam mit dem Know-Center arbeitet has.to.be an Möglichkeiten und Technologien zur Analyse und in weiterer Folge Visualisierung dieser Daten. Ziele des gemeinsamen Forschungsprojekts sind unter anderen auf Basis der historischen Verbrauchsdaten eine Vorschau (Forecast) auf zukünftige Verbräuche zu ermitteln, um den Betreibern von Ladestationen eine kostenoptimierte Energiebereitstellung zu ermöglichen. Weiters wurden die Daten hinsichtlich „Predictive Maintenance“ untersucht mit dem Ziel die Verfügbarkeit der Ladestationen zu Optimieren. Neben den genannten Use Cases für die Ladestations-betreiber wurde darüber hinaus auch versucht Vorhersageinformationen für den Endnutzer (E-Autobesitzer) hinsichtlich Verfügbarkeit von Ladestationen zu ermitteln. Der Vortrag zeigt wie diese Aufgabenstellungen mit dem Einsatz von (Big) Data Technologien gelöst werden konnten und welche Herausforderungen damit verbunden waren.
Digitalisierung beinhaltet viele Aspekte. Welche Möglichkeiten ergeben sich aber durch die Digitalisierung bzw. datengetriebenes Vorgehen im Bereich der Nachhaltigkeit (Stichwort Material-, Ressourceneffizienz)?
In diesem Vortrag werden verschiedene Geschäfts- und Anwendungsmodelle von Big Data vorgestellt sowie die Wichtigkeit aus "Big Data" "Smart Data" zu machen.
Currently, there are a number of buzz words floating around, including Big Data, Data Science, Deep Learning, and Artificial Intelligence. These concepts will be briefly defined, followed by a short introduction to the field of Machine Learning, the main algorithmic approaches and the current scientific state-of-the-art. Next, a number of industrial Data Science examples will be presented, mainly from the SemI40 project, an European industrial research project. There best practices, lessons learnt, and limitations will be presented and covers more practical aspects.
Artificial intelligence is a buzzword and receives a lot of attention in media recently. The driving force behind much of the recent progress due to specific machine learning methods, associated with the name deep learning. While such method provide excellent results, these methods also pose requirements on the data in terms of size and structure. Furthermore, expert knowledge is a critical ingredient to arrive at solutions that work in practice. Exemplary solutions are presented, ranging from analysing production data to demand forecasting of future demand to illustrate the usefulness and applicability of advanced data science and deep learning methods.
In der Keynote werden Beispiele für datengetriebene Use Cases vorgestellt und auf die dabei gewonnenen Erfahrungen eingegangen.
Der Vortrag beleuchtet die bei konkreten Kooperationsprojekten gewonnenen Erfahrungen im Bereich Predictive Maintenance als auch gibt einen Ausblick auf aktuelle Forschungsthemen in diesem Bereich.
Data-driven Business ist ein wesentlicher Bestandteil der digitalen Transformation. Die Lehrveranstaltung, die im Rahmen des Pflichtmoduls "Technologie- und Produktmanagement" des berufsbegleitenden Masterlehrganges "Innovationsmanagement" stattfindet, gibt einen Einblick in die grundlegenden Konzepte von Data-driven Business. Dabei werden Themen wie Big Data, Künstliche Intelligenz, Data Economy, DSGVO bis hin zu datengetriebenen Geschäftsmodellen behandelt. Die Studierenden sollen Kenntnisse über die Möglichkeiten von Data-driven Business erlangen und praktische Anwendungsfälle kennenlernen.
Der LSZ CIO-Kongress ist eine IT-Veranstaltung in Österreich und kommt dem unmittelbaren Informations- und Erfahrungsaustausch von CIOs und Managern aus Fachabteilungen untereinander, sowie CIOs/CxOs mit den Experten der Anbieter- und Dienstleistungsunternehmen entgegen. Die insgesamt mehr als 450 Teilnehmer sind aufgefordert, ihr Fachwissen in den Arbeitskreisen sowie in den zahlreichen sonstigen Diskussionsrunden – nach dem Open Space-Prinzip einzubringen.
The Heli-D project aims to develop a health literacy training program for middle school students, which considers the students diversity regarding German language competence, socioeconomic status and disability. The training program contemplates four different linguistic complexity levels for each topic. Also, an adaptive web application will allow all students in a class to work on the same topic regardless of their individual competences in an inclusive setting. By measuring, collecting and analysing the students’ data the web application adapts the content to the real needs of each student. This presentation shares our experience with the co-design approach. We actively involved 38 middle school students in the design process of the web application, looking for creative ideas on different areas, e.g. navigation, content presentation, gamification concepts. The co-design approach implies the involvement of the stakeholders in the design process as an extra guaranty that the final product meets the students’ expectations.
Big Data Challenges and Opportunities for organizations
Usability Engineering / User Centered Design
Diskussion über mögliche Auswirkungen von Künstlicher Intelligenz auf Unternehmen aber auch auf die Menschen als Individuen.
Am 14. Juni 2017 findet von 16:00 bis 20:00 „BIG DATA & DIGITAL MARKETING - Vorträge und Diskussion in englischer Sprache“ an der FH Kärnten in Villach statt. Im Rahmen dieser Veranstaltung wird das Know-Center vertreten durch Heimo Gursch, Area Knowledge Discovery, einen Vortrag mit dem Titel: „BIG DATA CHALLENGES IN DIGITAL MARKETING“ halten. Der Vortrag und eine anschließende Diskussion finden um 16:00 Uhr statt.
Im Rahmen des IKT Leitprojektes „Data Market Austria“ werden in einem Workshop die Anforderungen der Industrie an einen gemeinsamen Datenmarkt in Österreich erarbeitet. Das Eröffnungsreferat „Daten und ihre Rolle in Industrie 4.0“ dient dabei als Impuls.
Am 03. April 2017 fand beim Unternehmen M&R Automation im Rahmen der SFG fastforward4you Reihe die Veranstaltung Maschinen- & Anlagenbau im Fokus zum Thema „Big Machine Data“ statt. Rund 100 Besucher fanden sich auf der Veranstaltung ein, um das Thema Big Machine Data gemeinsam mit Experten zu diskutieren.
Das „Salzburg Big Data Meetup“ ist eine Veranstaltung die von dem Data Market Austria (DMA) in Kooperation mit Research Studios Austria Forschungsgesellschaft, ITG Salzburg, UBIT Wirtschaftskammer Salzburg, IV Salzburg und der Universität Salzburg organisiert wurde. Das Motto der Konferenz war „Daten durch Services in Gewinn umwandeln“, zu diesem Thema hielten zahlreiche Fachexperten Keynotes und Vorträge. Auf dem Event wurden Pilotanwendungen in den Bereichen Mobilität und Erdbeobachtung vorgestellt, sowie konkrete Wertschöpfungsperspektiven des Data Market Austria für Datenprodukte oder Datenservices präsentiert.
Vom 17. bis 19. Mai 2017 fand in der Stadtgemeinde Zell am See der 67. Österreichische Städtetag statt. Das Know-Center war mit einem Fachvortrag und bei einer Podiumsdiskussion dabei. Der Österreichische Städtetag stellt die Generalversammlung des Österreichischen Städtebundes dar. Hier war das Know-Center durch Michaela Ferk vom Big Data Lab vertreten. Im Rahmen des Arbeitskreises „Big Data – Daten veröffentlichen oder schützen?“ hielt sie einen Fachvortrag zum Thema Datenschutzrecht und Veröffentlichungspflichten im Kontext von Smart Cities. Bei der anschließenden Podiumsdiskussion unter dem Titel „Big Data – Goldesel der Zukunft“ wurde intensiv über die Vorteile und Hemmnisse, aber auch über die finanziellen Aspekte von Big Data diskutiert. Hier betonte Michaela Ferk vom Know-Center die Wichtigkeit des verantwortungsvollen Umgangs mit personenbezogenen Daten: „Im Bezug auf das Datenschutzgesetz liegt eine enorme Verantwortung bei den Städten. Es ist oft nicht so leicht feststellbar, was personenbezogene oder anderwertig heikle Daten sind. Gleichzeitig drohen hohe Strafen bei Verstößen“. Diese Balance, möglichst umfassend Daten zur Verfügung zu stellen und gleichzeitig auf Persönlichkeitsrechte zu achten, sei die Herausforderung für Städte und Gemeinden. Im Rahmen dieses Arbeitskreises wurde ebenfalls ein gemeinsames Projekt von Stadt Graz und dem Big Data Lab des Know-Center mit dem Titel „Leitlinien zum digitalen Datenmanagement der Stadt Graz“ von DI Elke Achleitner, Abteilungsleiterin des Stadtvermessungsamt Graz, vorgestellt. Abschließend wurde beim Städtetag 2017 eine Resolution mit dem Schwerpunkt Big Data beschlossen.
Beim jährlichen Wissenschaftstag der Mittelschule HIB Liebenau in Graz werden Schülern der Oberstufe interessante Berufsbilder, wie z.B. das des Data Scientists, vorgestellt.
ERA-Net Smart Grids Plus is a joint programming initiative of 23 funding partners from 21 European countries, committed to finance transnational Smart Grids development. A core group of partners of the initiative has already started in 2016 to develop an approach how to establish innovation ecosystems for the development of smart services for smart energy systems. It is assumed that data and service platforms will play an important role in that context. As one of the partners of the project Data Market Austria (DMA), Know-Center will present DMA and discuss its possible role within smart energy systems.
Die 5. Fachkonferenz ‚Big Data Management‘ beschäftigt sich mit Big Data als Business Enabler – es werden in Keynote Talks und Roundtable Discussions neueste Technologien sowie innovative Beispiele und Erfahrungsberichte aus der Anwenderpraxis vorgestellt. Die Veranstaltung umfasst folgende Themen: Big Data – Praxisinputs aus verschiedenen Branchen Big Data Strategien – Wie kommt man zu Wertschöpfung & Nutzen? Data Driven Marketing – Customer Insights & Predictive Analytics Einblicke in neueste Technologien (u.a. Analytische Datenbanken & In- Memory) Neuheiten aus dem Bereich Cloud Computing & Storage
Der Vortrag „The Role of Recommendations in Predictive Analytics“ geht zunächst auf Data-Driven Marketing, dessen Grundpfeiler und Recommender Systems als Teil von Marketing Services im Bereich Predictive Analytics ein. Im Anschluss wird dies anhand von Projekten veranschaulicht, und unter anderem eine in Kooperation mit Detego entwickelte, Decision Support Engine vorgestellt, welche basierend auf der Analyse von RFID Event-Streams konkrete Handlungsempfehlungen für MitarbeitInnen der Retail Fashion Industrie ableitet und damit deren digitale Transformation auf ein neues Level hebt.
The legal framework plays an important role in all data-driven and digitization projects. Certain "types of data" are associated with certain rights. These range from copyright and competition law to data protection law. This lecture will give a brief overview of all these legal areas as well as a brief insight into the contract design for data use.
The presentation will analyse the main provisions of the GDPR on risk-based data security, in particular Article 32 GDPR as well as privacy by design and privacy by default. Furthermore the principle of accountability is discussed as a requirement for an Information Management Security System (ISMS) in corporate practice.
Presentation of current trends and use cases regarding digitisation in the GreenTech industry
THE GOAL OF OUR RESEARCH IS TO COMMUNICATE INFORMATION ABOUT COMPLEX, REAL-TIME PROCESSES IN AN ENGAGING, INTERACTIVE AND QUICK-TO-UNDERSTAND MANNER. THE REPRESENTATION SHOULD BE AESTHETICALLY PLEASING AND INCREASE OVERALL WELL-BEING IN THE WORKPLACE.
In the Industrial 4.0 environments, machines are becoming increasingly more complex, and tasks like machine configuration and maintenance, demand higher human expertise, thus operators have to be trained at work to be able to deal with such complex systems. The demand for innovative learning technologies in order to provide continuous training and learning at the workplace is very high. Augmented reality systems proved to be a very successful learning technology in supporting and enhancing training on the job (e.g. facilitating task comprehension, location and execution). The goal of this research is to communicate information about complex, real-time processes in an engaging, interactive and apparent manner, using an augmented reality nature inspired metaphor - BioAR. In the BioAR concept, each machine is represented by a virtual tree, which aims to be aesthetically pleasing and increase the overall well-being of the workers based on the biophilic design principles. Each tree provides information about the tasks that need to be performed at a given time, and offers immediate feedback based on the operator performance. In two user studies, twenty-two participants considered the interaction with the BioAR pleasant and most of them reported to feel more inclined to perform better, by taking “care” for the living proxy of the machine. The studies highlighted research personalization, intelligibility vs representational power, reflective learning and gamification as directions for follow-up investigations.
Big Data Challenges and Opportunities for organizations
Die Digital Innovation Hubs (DIH) stellen eine wichtige Initiative dar, um die Strategie zur Digitalisierung der europäischen Industrie zu forcieren. Die Initiative verfolgt das Ziel allen Unternehmen in Europa die bestmögliche Unterstützung im Zuge des digitalen Wandels zugänglich zu machen. Dabei geht es sowohl um digitale Innovationen im Bereich der Produkte und Produktion, als auch der Prozesse und Businessmodelle. Die Veranstaltung soll potenziellen österreichischen AntragstellerInnen die neuen Initiativen näher bringen. Es werden die Ziele, die die Europäische Kommission verfolgt, von Anne-Marie Sassen (Deputy Head of Unit DG CONNECT), erörtert sowie die antizipierte Struktur von Projekten in den einzelnen Bereichen diskutiert. Dadurch sollen Unsicher- und Unklarheiten beseitigt werden.
This guest lecture will take place as part of the course "Industrial Manufacturing" at the Institute of Production Engineering and will give an introduction to the essential aspects of Big Data in connection with Industry 4.0.
Der LSZ CIO-Kongress ist eine IT-Veranstaltung in Österreich und kommt dem unmittelbaren Informations- und Erfahrungsaustausch von CIOs und Managern aus Fachabteilungen untereinander, sowie CIOs/CxOs mit den Experten der Anbieter- und Dienstleistungsunternehmen entgegen. Die insgesamt mehr als 450 Teilnehmer sind aufgefordert, ihr Fachwissen in den Arbeitskreisen sowie in den zahlreichen sonstigen Diskussionsrunden – nach dem Open Space-Prinzip einzubringen.
Der LSZ CIO-Kongress ist eine IT-Veranstaltung in Österreich und kommt dem unmittelbaren Informations- und Erfahrungsaustausch von CIOs und Managern aus Fachabteilungen untereinander, sowie CIOs/CxOs mit den Experten der Anbieter- und Dienstleistungsunternehmen entgegen. Die insgesamt mehr als 450 Teilnehmer sind aufgefordert, ihr Fachwissen in den Arbeitskreisen sowie in den zahlreichen sonstigen Diskussionsrunden – nach dem Open Space-Prinzip einzubringen.
Big Data ist einer der großen Treiber der digitalen Transformation. Die Lehrveranstaltung, die im Rahmen des Pflichtmoduls "Technologie- und Produktmanagement" des berufsbegleitenden Masterlehrganges "Innovationsmanagement" stattfindet, gibt einen Einblick in die grundlegenden Konzepte von Big Data – angefangen von entsprechenden Begriffserklärungen, über Verfahren der Datenanalyse und Big Data Technologien bis hin zu datengetriebenen Geschäftsmodellen. Die Studierenden sollen Kenntnisse über die Möglichkeiten von Big Data erlangen und praktische Anwendungsfälle kennenlernen.
Im Verein „Industrie 4.0 Österreich – die Plattform für intelligente Produktion“ wirken wichtige gesellschaftliche, politische, wirtschaftliche und wissenschaftliche Akteure an der Gestaltung der zukünftigen Produktions- und Arbeitswelt mit. Damit soll ein Beitrag zur Steigerung des zukünftigen Wohlstandes für alle Menschen in Österreich geleistet werden. Das Ziel ist, die neuen technologischen Entwicklungen und Innovationen der Digitalisierung (Industrie 4.0) bestmöglich für Unternehmen und Beschäftigte zu nutzen und den Wandel für die Gesellschaft sozialverträglich zu gestalten. Die Veranstaltung Industrie 4.0 Summit 2017 findet dieses Jahr unter dem Motto „VERNETZEN. KOOPERIEREN. DIGITALISIEREN.“ statt, wobei bewusst auf die Bundesländer zugegangen wird, um den Austausch und Kooperation mit den Ländern und den Betrieben intensivieren.
In our goal to personalize the discovery of scientific information, we built systems using visual analytics principles for exploration of textual documents [1]. The concept was extended to explore information quality of user generated content [2]. Our interfaces build upon a cognitive model, where awareness is a key step of exploration [3]. In education-related circles, a frequent concern is that people increasingly need to know how to search, and that knowing how to search leads to finding information efficiently. The ever-growing information overabundance right at our fingertips needs a natural skill to develop and refine search queries to get better search results, or does it? Exploratory search is an investigative behavior we adopt to build knowledge by iteratively selecting interesting features that lead to associations between representative items in the information space [4,5]. Formulating queries was proven more complicated for humans than recognizing information visually [6]. Visual analytics takes the form of an open ended dialog between the user and the underlying analytics algorithms operating on the data [7]. This talk describes studies on exploration and discovery with visual analytics interfaces that emphasize transparency and control features to trigger awareness. We will discuss the interface design and the studies of visual exploration behavior.
While most texts nowadays are written using electronic word processors, the support potential that such environments could provide has not yet been fully explored. Appropriate tools embedded in a word processor could help writers improve the quality, fluency, and ease of their composing tasks. Our research focuses on assessing the type of support writers need and relates this to ongoing cognitive activities. During a typing phase, for example, presenting exemplary phrases showing how a key term was used in similar contexts could broaden the writer’s understanding of a topic and help her to apply this knowledge in her composition. Furthermore, the selection of support and learning tools can be adapted based on individual weak points identified through the writing behavior.
Learning about a new topic entails a dynamic, open-ended information-seeking process where the user acquires new knowledge bits by bits. Users often start searching with a vague idea in mind, then discover new concepts while they explore the information space and build knowledge constructs along the way. In contrast to traditional information retrieval systems, interactive tools have proven to be more suitable to foster exploration of textual resources, such as search results or digital libraries, and hence support sensemaking more efficiently. Our research is focused in developing tools that enable the user to steer the search process by means of rich adaptive user interfaces, which are in turn backed by intelligent mechanisms that model evolving information needs. We also conducted several studies where we assessed objective system aspects, e.g. performance, as well as search patterns employed by users and behavioral traits.
Big Measurement Data is a COMET-funded applied research project executed by Know-Center and AVL. The project deals with development of methods for retrieval and visual analysis of large scale sensor data. The data is collected from sensors installed on engines, cars or trucks, which are either subject to different test bed programmes or are in use in real-world driving situations. The main result of the project is a search engine which, given a user-defined signal pattern exhibiting a particular shape, finds other signals containing patterns equal or similar to the specified one. Two main challenges addressed by the developed retrieval method are: i) the capability to quickly identify signals containing similar patterns in large data repositories, including noisy and time/amplitude-scaled signal data, and ii) to rank the hits depending on their similarity to the search. Another result of the project is a web-based visual interface supporting search and exploration of signals which may be too large for handling in the browser. The scalability is achieved through server-side aggregation of the signal data using a down-sampling algorithm optimised to preserve visual features. Smooth exploration is supported by a line chart visualisation component, which dynamically loads data from the server depending on the selected time interval and zoom level, resulting in low network traffic and minimised web client load.
Bei einem World Café wurden unterschiedlichste Aspekte von Big Data Analytics wie Herangehensweise, Einsatzmöglichkeiten, Pitfalls etc. diskursiv besprochen.
Webbasierte Tools wie z.B. die Kommunikationssoftware Slack sind in zahlreichen Organisationen im Einsatz. Untersucht wurde mit einer explorativen Fallstudie für 5 verschiedene Organisationstypen, wie sich der Einsatz solcher Tools auf Wissensmanagementprozesse auswirkt. Festgestellt wurde u.a., dass Slack im Sinne der Entwickler v.a. auf Wissensweitergabe und -organisation, aber auch -sicherung zu wirken scheint und der Effekt auf Wissenserwerb und -generierung von der Nutzungsabsicht beeinflusst ist. 
OpenUP will engage with all stakeholders via a series of outreach and training events, and the creation of an Open Information Hub, a collaborative web-based Knowledge Base that will host a catalogue of open tools/services, methodologies, best practices from various disciplines or settings, success stories, reports.
Das weltweite Datenvolumen explodiert in allen Bereichen der Wirtschaft. Laut Marktforschern und Analysten wird die Menge an Daten mit den Unternehmen umgehen müssen weiter massiv zu nehmen. McKinsey geht von einem jährlichen Anstieg von 40% aus, Gartner geht von einer Versechsfachung der global produzierten Datenmenge bis 2020 aus. Parallel dazu stellt sich die Frage, wie aus all diesen Daten nützliche Informationen herausgefiltert und Big Data möglichst in Echtzeit verarbeitet werden können. Die Antwort dazu bieten Data Scientists oder Datenanalysten, eine neue Generation von Spezialisten welche mit Hilfe von Algorithmen aus schwer überschaubaren Datenhaufen nützliche Informationen extrahieren. Stefanie Lindstadt beleuchtet nach einer Einführung in den Bereich Data Science die Anforderungen und Chancen an Data Science aus unterschiedlichen Perspektiven wie Wissenschaft und Wirtschaft. Im Zentrum stehen dabei die Ausbildung von Data Scientists in Österreich, veranschaulicht am Beispiel der TU Graz und dem Know-Center, sowie diverse Möglichkeiten für Österreichs KMUs auf dieses Know-how zuzugreifen. Die Plattform Digital Networked Data bietet über das ganze Jahr verteilt mehrere Informationsveranstaltungen zu den Themen Data Science und Big Data.
Zum Thema „Data: Big, Bigger, …?“ erläutert Stefanie Lindstaedt vom Know-Center Graz mit ihrem Vortrag „Connecting the Medical Problem with Open Knowledge“, wie Probleme in der Medizin mit großen Datenmengen durch die Verknüpfung mit „Open Knowledge“, offen zugänglichem Wissen, gelöst werden können.
Peter Kraker führt in die Welt der Altmetrics ein – das sind alternative Metriken zur Bewertung von wissenschaftlichen Publikationen. Diese versprechen eine bessere und schnellere Beurteilung als der sehr unter Kritik stehende aktuelle Weg – der Impact Factor.
Unter dem Motto „Big Data als Business Enabler“ beschäftigt sich die LSZ Fachkonferenz heuer mit einer Betrachtung von Anwendungsfällen und Szenarien verschiedenster Branchen als auch der Vorstellung neuester Technologien. Neben vier spannenden Keynotes und Tech-Insights erwarten Sie hier auch Fachvorträge sowie eine abschließende Podiumsdiskussion. Wolfgang Kienreich, Director Business & Markets am Know-Center, spricht in seinem Vortrag „Management – Die einzige echte Big Data Herausforderung“ über Forschungs- und Unterstützungsmöglichkeiten um große Datenmengen effizient zu managen.
Unter dem Motto „Big Data als Business Enabler“ beschäftigt sich die LSZ Fachkonferenz heuer mit einer Betrachtung von Anwendungsfällen und Szenarien verschiedenster Branchen als auch der Vorstellung neuester Technologien. Neben vier spannenden Keynotes und Tech-Insights erwarten Sie hier auch Fachvorträge sowie eine abschließende Podiumsdiskussion. Prof. Stefanie Lindstaedt, Geschäftsführerin am Know-Center, nimmt an der Podiumsdiskussion mit dem Titel „Big Data als Business Enabler – Welche Erfahrungen (und Erwartungen) gibt es? Wo stehen wir bereits?“ teil.
Jedes Unternehmen verfügt über unendlich große Datenberge. Seien es unstrukturierte Texte oder Simulations-, Benutzer-, Social Media- oder Interaktionsdaten – all diese liegen überwiegend im Verborgenen. Nun sind sich viele Unternehmer dieses wahren Datenschatzes (noch) nicht bewusst. Eine gezielte Datenanalyse bringt es ans Licht: es ergeben sich Möglichkeiten zu überraschenden Anwendungen bis hin zu neuen Geschäftsmodellen.
Jedes Unternehmen verfügt über unendlich große Datenberge. Seien es unstrukturierte Texte oder Simulations-, Benutzer-, Social Media- oder Interaktionsdaten – all diese liegen überwiegend im Verborgenen. Nun sind sich viele Unternehmer dieses wahren Datenschatzes (noch) nicht bewusst. Eine gezielte Datenanalyse bringt es ans Licht: es ergeben sich Möglichkeiten zu überraschenden Anwendungen bis hin zu neuen Geschäftsmodellen.
Wie wird OA und Open Science langfristig die wissenschaftliche Kommunikation verändern? Wie können derzeitig bestehende Defizite behoben werden? Um Antworten auf diese Fragen zu finden, plant die Arbeitsgruppe die Bestandsaufnahme der derzeitigen Situation in Österreich und gleichzeitig die Beobachtung zeitgleich stattfindender internationaler Entwicklungen. In dieser AG sollen realistische Empfehlungen für den Übergang auf Open Science in der wissenschaftlichen Kommunikation in Österreich entwickelt werden. Dabei sollte gleichzeitig das „visionäre Potential“ von Open Science nicht außer Acht gelassen und Wünsche an eine zukünftige Wissensgesellschaft formuliert werden.
Graphical interfaces and interactive visualisations are typical mediators between human users and data analytics systems. HCI researchers and developers have to be able to understand both human needs and back-end data analytics. Participants of our tutorial will learn how visualisation and interface design can be combined with data analytics to provide better visualisations. In the first of three parts, the participants will learn about visualisations and how to appropriately select them. In the second part, restrictions and opportunities associated with different data analytics systems will be discussed. In the final part, the participants will have the opportunity to develop visualisations and interface designs under given scenarios of data and system settings.
Im Vordergrund der Big Data Tagung der Arbeitsgemeinschaft Datenverarbeitung steht das Thema "Digitale Transformation in der Praxis". Big Data ist zwar in aller Munde, wie schaut aber die Umsetzung in der Realität aus? In seinem Vortrag berichtet Robert Ginthör über Erfahrungen aus konkreten Big Data Projekten des Know-Center.
Der LSZ CIO-Kongress ist eine IT-Veranstaltung in Österreich und kommt dem unmittelbaren Informations- und Erfahrungsaustausch von CIOs und Managern aus Fachabteilungen untereinander, sowie CIOs/CxOs mit den Experten der Anbieter- und Dienstleistungsunternehmen entgegen. Die insgesamt mehr als 450 Teilnehmer sind aufgefordert, ihr Fachwissen in den Arbeitskreisen sowie in den zahlreichen sonstigen Diskussionsrunden – nach dem Open Space-Prinzip einzubringen.
Die Initiative "Smart Production" ist ein Zusammenschluss von sieben Instituten der TU Graz. Durch eine intelligente Bündelung der vorhandenen F&E-Expertisen dieser Institute verfolgt Smart Production Graz die Vision durch interdisziplinäre Ansätze neue Lösungen im Bereich der Produktion anzubieten und so Industrie 4.0 durch konkrete Applikationen einzuführen. Im Vortrag wird die Relevanz von Big Data für die Industrie 4.0 erläutert.
Bei der ersten Regionalveranstaltung zu Wirtschaft 4.0 in NÖ unter dem Titel "Datenmanagement & Lernen aus Daten" beim erfolgreichen Industrie 4.0-Start-up LineMetrics in Haag werden die Chancen der Digitalisierung für Unternehmen ausführlich beleuchtet. Robert Ginthör vom Know-Center der TU Graz spricht über den Mehrwert, der aus den eigenen sowie den Daten anderer gezogen werden kann.
Das neueste LSZ Event „Industrie 4.0“ beschäftigt sich mit den Chancen und Herausforderungen die durch Industrie 4.0 & Digitalisierung entstehen. Unter dem Motto „DIGITAL — VERNETZT — SMART – ERFOLGREICH“ finden am 22. November 2016 im Styria Media Center Graz Keynotes, Vorträge sowie eine Podiumsdiskussion statt. Auch das Know-Center ist vertreten – diesmal mit einem gemeinsamen Fachvortrag „Lassen wir die Daten sprechen“ von Know-Center und Oracle. Robert Ginthör, CTO Know-Center wird gemeinsam mit Christian Hauser, Oracle Business Intelligence Sales Representative über datengetriebene Geschäftsmodelle sprechen. Weiters wird das Vorgehen bei Datenanalyse-Projekten erläutert und anhand einiger Beispielprojekte auf Oracle Big Data Basis gezeigt.
Big Data ist einer der großen Treiber der digitalen Transformation. Die Lehrveranstaltung, die im Rahmen des Pflichtmoduls "Technologie- und Produktmanagement" des berufsbegleitenden Masterlehrganges "Innovationsmanagement" stattfindet, gibt einen Einblick in die grundlegenden Konzepte von Big Data – angefangen von entsprechenden Begriffserklärungen, über Verfahren der Datenanalyse und Big Data Technologien bis hin zu datengetriebenen Geschäftsmodellen. Die Studierenden sollen Kenntnisse über die Möglichkeiten von Big Data erlangen und praktische Anwendungsfälle kennenlernen.
In der zweiten Keynote an diesem Abend brachte die Informatikerin Stefanie Lindstaedt vom Know-Center an der TU Graz tätig – ihre Erfahrungen und Expertise ein, da ihre Abteilung versucht, Innovationsprozesse und neue Geschäftsmodelle in Unternehmen zu etablieren. Lindstaedt, die auch eine Funktion im Connect Advisory Forum (höchstes Advisory Forum der Europäischen Union im Bereich IKT) innehat, sieht potentielle Gefahren für europäische Unternehmen gegeben, die auf Grund des starken Drucks aus Nordamerika und Asien immer mehr in eine Handlungsnot gedrängt werden – diese neuen Geschäftsmodelle (sog. Enterprise Plattformen) sind schon lange kein „Micky Mouse Geschäft“ mehr.
This guest lecture will take place as part of the course "Industrial Manufacturing" at the Institute of Production Engineering and will give an introduction to the essential aspects of Big Data in connection with Industry 4.0.
Um richtig viele Daten zu bekommen benötigt man kluge Strategien und noch klügere Methoden, sie auszuwerten.
Viktoria was kindly invited to present herself, her and her group´s research agenda for the upcoming years at the renowned Knowledge Media Research Center in Tübingen, Germany. She specifically talked about the group´s research approaches, and its goals to explore ubiquitous technologies as promising mediating technologies for knowledge workers.
A Computer Science Perspective on Ubiquitous Working
The overall objective of MIRROR is to empower and engage employees to reflect on past work performances and personal working experiences in order to learn in “real-time” and to creatively solve pressing problems immediately.
Linked Open Data has grown into a large and recognised source of data, however its uptake and commercial exploitation does not yet reflect its potential value. Two factors with potential to contribute to the value of data are correlating previously uncorrelated data and providing answers based on the data. We present a data-centric question answering portal, developed within the CODE project, which focuses on answers based on empirical facts embedded in numerical Linked Open Data. The portal is backed by services addressing data extraction and semantic integration, creating and merging of data sets, and discovery and visual analysis targeting IT laymen.
CODE’s vision is to establish a web-based, commercially oriented ecosystem for Linked Open Data. Project focuses on research papers as source of facts which are integrated into a “Linked Science Data cloud”, and investigates roles, revenue models and value chains in data marketplaces. The exhibit includes the demonstration of several showcase applications (see code-research.eu/results) as well as three platforms developed to analyse value chains for (Linked) Open Data: 42-data.org - a data-centric question and answer portal for researchers, Mendeley Desktop Client and Server API for semantically enriching research publications, and the MindMeister.com web platform for generating semantic web-enabled mind-maps.
Current research about information extraction of PDF files.
Discussion panel on topics of big-data analytics. Considered issues in terms of innovation and opportunities for research. Also looked at the need for new data processing infrastructures.
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL
NULL