DSpace Collection:
https://digitalcollection.zhaw.ch/handle/11475/1240
2024-03-26T18:15:05Z«Rent my Rooftop» – Analyse, Requirements-Engineering und Design eines Startups : Requirements-Engineering der Webplattform «rentmyrooftop.ch» – wie können Menschen (als Anbieter und Nachfrager von Event-Locations, insbesondere Dachterrassen) optimal vernetzt werden?
https://digitalcollection.zhaw.ch/handle/11475/26505
Title: «Rent my Rooftop» – Analyse, Requirements-Engineering und Design eines Startups : Requirements-Engineering der Webplattform «rentmyrooftop.ch» – wie können Menschen (als Anbieter und Nachfrager von Event-Locations, insbesondere Dachterrassen) optimal vernetzt werden?
Authors: Pannarakunnel, Jevin
Abstract: In der Stadt Zürich verabreden sich viele junge Personen zum Essen oder für ein kleines Zusammentreffen an verschiedenen Standorten. Je höher dieser Treffpunkt vom Boden entfernt ist, desto attraktiver ist es für die teilnehmenden Personen. Verschiedene Lokale, welche eine Dachterrasse anbieten, können sich im Sommer kaum vor Reservationen retten und sind meistens Wochen voraus ausgebucht. Auch diverse Veranstaltungen wie Partys oder Firmenfester werden vermehrt in der Höhe veranstaltet. Die Zugänglichkeiten zu den sogenannten Rooftops ist in der Stadt Zürich beschränkt und es werden keine grossen Alternativen angeboten. Dabei gibt es hunderte von Dachterrassen von privaten Personen, Gemeinschaftsterrassen von Wohnblöcken oder Dachterrassen von Unternehmen, welche grösstenteils ungenutzt bleiben.
Diese Arbeit beantwortet die Frage, wie können Menschen (als Anbieter und Nachfrager von Event-Locations, insbesondere Dachterrassen) optimal vernetzt werden? Um sämtliche Vorgänge auf der Webplattform zu vereinfachen, wurde besonderen Wert auf die optimale Benutzerführung (User Experience) gelegt. Die neu entwickelte Webplattform vereinfacht es den jungen Personen in der Stadt Zürich den Zugang zu mehreren Dachterrassen zu erhalten.
Der Aufbau der gesamten Arbeit konzentriert sich auf die technische Entwicklung der Webplattform «rentmyrooftop.ch» und die darauffolgenden Benutzertests mit einer aus gewählten Benutzergruppe. Rechtliche Fragen, Businessanalysen, die Bereitschaft der Kunden sowie Marktstudien werden in dieser Arbeit sekundär behandelt. Der Projektplan beginnt mit der technischen Entwicklung der Webplattform und das Schreiben von verschiedenen User-Storys, welche durch die Webplattform abgedeckt werden. Darauffolgend wurden zwei Betatest-Phasen und Sprint-Phasen eingebaut, in denen die technischen Fehler korrigiert und auf die Wünsche der Tester eingegangen wurde, um die Plattform möglichst einfach und skalierbar zu gestalten.
Mit der Auslieferung der neuen Webplattform können die identifizierten Probleme vollumfänglich gelöst werden. Die identifizierten Probleme sind der fehlende Zugang zu den Dachterrassen, die rechtlichen Fragen für die Veranstaltung eines Events auf Dachterrassen und die Einfachheit und Praktikabilität der Webplattform gering zu halten. Die entwickelte Webplattform ist einfach skalierbar und für andere «Shared Economy» Prinzipien nutzbar. Für die Entwicklung des Codes wurde etwa 60% der Zeit benötigt.
Zum Schluss dieser Arbeit werden weiterführende Schritte eruiert, welche bereits in verschiedenen Releases des Unternehmens eingeplant wurden. Dabei lässt sich festhalten, dass sich die Webplattform auf einem guten Fundament befindet. Die weiter geplanten Releases dienen für die Verbesserung der Benutzerakzeptant und der Benutzerfreundlichkeit.2022-01-01T00:00:00ZBlockchain im Baumanagement : Automatisierung der Zahlungsprozesse
https://digitalcollection.zhaw.ch/handle/11475/26504
Title: Blockchain im Baumanagement : Automatisierung der Zahlungsprozesse
Authors: Hofmann, Christian
Abstract: Die Zahlungsmoral der Baubranche ist signifikant schlechter als in fast allen anderen Branchen. Zudem ist die Gewinnmarge im Branchenschnitt nahe am Nullpunkt. Zahlungsverzögerungen sind daher vor allem für kleinere Betriebe kaum verkraftbar. Die finanziellen Rücklagen solcher Unternehmen sind teilweise ungenügend, um längere Zahlungsverzögerungen bei mehreren und grösseren Projekten zu bewältigen.
Diese Arbeit untersucht, wie der Einsatz von Blockchain den Zahlungsprozess in der Baubranche verbessern kann. Es wird aufgezeigt, wie die Blockchain-Technologie Vertrauen und Transparenz erhöhen kann. Mangel an Transparenz und Vertrauen sind die kritischsten Elemente in einer wettbewerbsorientierten Auftragsvergabe, die zu einem feindseligen Umfeld führen und häufig in Rechtstreiten enden kann.
Um diesem Problem entgegenzutreten, werden Forschungsergebnisse in den Bereichen der Baubranche, des Eventstreamings und der Blockchain erfasst. Aus diesen Erkenntnissen werden Lösungsansätze für die vorliegende Fragestellung erarbeitet. Diese Lösungsansätze werden anschliessend konkret in einem Proof-of-Concept umgesetzt und auf ihre Wirksamkeit überprüft. Dabei kann aufgezeigt werden, dass eine Verbindung einer Blockchain mit einer Baumanagement-Lösung es ermöglicht, Arbeitsnachweise als NFTs festzuhalten und unveränderbar zu dokumentieren. Dadurch kann sichergestellt werden, dass eine bestimmte Arbeit zum Zeitpunkt der Beendigung wie erwartet erledigt wurde und dies von der Bauleitung sowie den Ausführenden genehmigt wurde. Bei späteren Konflikten liegt durch diese Lösung ein Nachweis zur Erledigung der nun bemängelten Arbeit vor. Weiter wird gezeigt, dass bei Beendigung einer Arbeit auch direkt Transaktionen über die Blockchain ausgeführt werden können. Dadurch werden Zahlungen direkt ausgelöst und der Zahlungsverzug wird somit eliminiert.
Weitere Projekte können die Frage beantworten, wie der zu überweisende Betrag definiert und dokumentiert wird. Dies bedarf unter Umständen eine Berücksichtigung der den Bauprojekten zugrundeliegenden Verträge. Abschliessend lässt sich festhalten, dass die Blockchain-Technologie es ermöglicht, wesentliche Probleme der Baubranche zu beseitigen. Die beiden erarbeiteten Lösungsansätze zeigen konkret auf, wie die Probleme gelöst werden können. Zudem werden alternative Geschäftsmodelle für Baumanagement-Lösungen vorgestellt. So kann das Preismodell an die Transaktionen der Blockchain angepasst und die Plattformkosten pro Transaktion berechnet werden. Die vorliegende Arbeit zeigt daher auf, wie Probleme der Baubranche gelöst werden können, zeigt alternative Geschäftsmodelle für Baumanagement-Lösungen auf und ermöglicht mit dezentralen autonomen Organisationen eine neue Form der Projektfinanzierung.2022-01-01T00:00:00ZRequirements Engineering für ein Startup : Analyse, Design und Umsetzung einer digitalen Kunstgalerie
https://digitalcollection.zhaw.ch/handle/11475/26503
Title: Requirements Engineering für ein Startup : Analyse, Design und Umsetzung einer digitalen Kunstgalerie
Authors: Grbic, Florian
Abstract: Die Kunstbranche hat sich in den letzten Jahren stark verändert. Immer mehr Galerien nutzen – wegen der Digitalisierung – breitere digitale Verkaufs- und Kommunikationskanäle. Die Künstler und Künstlerinnen müssen zu hohen Margen ihre Produkte den Galerien übergeben und/oder di gital auf Plattformen anbieten, damit sie erfolgreich verkaufen können. Der Verkauf in Galerien zwingt Künstler/innen oftmals einen Exklusivvertrag zu unterzeichnen, was den Künstler oder die Künstlerin an die Galerie bindet. Kleine talentierte Künstler/innen haben es schwer sich auf dem Markt zu etablieren und benötigen deshalb Hilfe von einer Plattform, welche den Künstler oder die Künstlerin dabei unterstützt, Produkte anzubieten, den Verkaufsprozess zu steuern und Kunden auf die Kunstwerke aufmerksam zu machen. In der Schweiz gibt es einen Mangel an digitalen Kunstplattformen und keine Plattform stellt sich die Frage: «Wie müssen digitale Kunstgalerie aussehen, damit Künstler/innen aller Bereiche diese nutzen?». Ziel der Arbeit ist es, die Bedürfnisse von Künstler/innen zu erkennen und anhand von technologischen Visionen die physischen Galerien zu ersetzen. Damit Künstler/innen aus allen Bereichen diese nutzen, wurde die Zertifizierung mittels Blockchain-Technologie untersucht und die Bedeutung von Wallets, Blockchain und Smart Contracts dokumentiert. Anhand der Erkenntnisse konnte die Herangehensweise an physische NFTs bestimmt werden und Chancen sowie Probleme frühzeitig aufgezeigt werden. Es wurde bewusst, dass nicht nur digitale, sondern auch physische Kunstwerke davon profitieren können, und zudem wurden die verschiedenen Herangehensweisen präsentiert. Durch Expertengespräche im Bereich des Rechtes wurde die Wichtigkeit vom Urheberrecht bei der Prägung identifiziert und die Notwendigkeit standhafter Verträge zwischen dem Veräusserer oder der Veräus serin, dem Erwerber oder der Erwerberin und der Plattform betont. Es wurde ein Richtwert festgelegt, nach dem Kunstwerke manuell von der Plattform geprüft werden müssen. Um physische Kunstgalerien optimal zu ersetzen, müssen Kunstwerke den Kund/innen auf eine reale Art präsentiert werden. Dies soll durch das Angebot von 3D-Galerien modular ermöglicht werden und daraus ergeben sich viele weitere Vorteile. Im Vergleich zu einfachen Webshops lassen sich nicht nur die Werke selbst in virtuellen Galerien viel besser darstellen, sondern auch die Abmessungen, Materialien und Rahmenqualitäten. Hiermit erhält die digitale Kunstgalerie eine physische Andeutung und Kund/innen profitieren unabhängig des Standortes sowie der Zeit davon. Durch eine fundierte Markt- und Konkurrenzanalyse konnten Marktlücken sowie Chancen, welche die anderen Anbieter nicht abdecken, aufgezeigt und für die Plattform erarbeitet werden. Marketing-Mix und SWOT-Analyse verhalfen der Plattform, die eigenen Produkte und Lösungen genauer zu verstehen und den Antritt auf den Markt genau zu planen. Anhand der Prozessbeschreibung, der Logistik und der visuellen Ausarbeitung von den wichtigsten Seiten auf der Webpage konnten wichtige Funktionen den Künstler/innen vorgestellt und die Rückmeldung eingeholt werden. Der Aufbau der Plattform wird durch die tiefen Fixkosten nach der Entwicklung unterstützt und ist von Künstler und Künstlerinnen sehr erwünscht.2022-01-01T00:00:00ZCredit Scoring mit Random Forest : exemplarische Analyse der Wichtigkeit von einzelnen Einflussfaktoren zur Evaluation der Kreditwürdigkeit beim durch Machine Learning unterstützten Kreditgenehmigungsprozess von Banken
https://digitalcollection.zhaw.ch/handle/11475/26502
Title: Credit Scoring mit Random Forest : exemplarische Analyse der Wichtigkeit von einzelnen Einflussfaktoren zur Evaluation der Kreditwürdigkeit beim durch Machine Learning unterstützten Kreditgenehmigungsprozess von Banken
Authors: Gisin, Cyrill
Abstract: Die Anwendung von zunehmend komplexeren Machine-Learning-Modellen verbessert im Allgemeinen zwar die Vorhersagegenauigkeit, geht jedoch mit einer anwachsenden Intransparenz einher. Im Kontext der Kreditwürdigkeit ergibt sich für Banken und sonstige Kreditinstitute hierbei typischerweise das Problem, dass die angewandten Modelle zwar eine hohe Performance aufweisen, deren Entscheidungsfindung aber nur schwer nachvollzogen werden kann. Das Verstehen der Funktionsweise des zugrundeliegenden Modells ist jedoch für den Kreditgeber nicht nur aus gesetzlichen Gründen von Relevanz, sondern auch um das Modell zu verbessern oder eine allfällige Voreingenommenheit und Diskriminierungen zu erkennen und das Modell entsprechend anzupassen.
Die vorliegende Arbeit zeigt an einem Beispiel auf, wie trotz der Verwendung von einem komplexen Modell die damit einhergehende Intransparenz eingedämmt werden kann und untersucht deshalb exemplarisch die Wichtigkeit von einzelnen Einflussfaktoren beim durch Machine Learning unterstützten Kreditgenehmigungsprozess von Banken. Hierzu wird ein Random-Forest-Modell auf einem öffentlich zugänglichen Datensatz trainiert und darauf aufbauend dessen Entscheidungsfindung mit der Anwendung von Explainable-AI-Methoden erläutert, um die Blackbox aufzubrechen und die Funktionsweise des Modells vollumfänglich zu verstehen, wobei die ermittelten Ergebnisse mit dem aktuellen Stand der Forschung verglichen werden.
Das im Anhang ersichtliche Jupyter Notebook führt den Leser, beginnend bei der deskriptiven Analyse, durch den gesamten Machine-Learning-Prozess und zeigt die konkrete Anwendung von Permutation Feature Importance, Partial Dependence Plots und Shapley Values sowie deren Interpretation auf. Obwohl dies primär der exemplarischen Anwendung dient, geht aus den ermittelten Ergebnissen hervor, dass auf Basis des trainierten Machine-Learning-Modells die Kredithistorie, der Kreditbetrag, das Einkommen, die Kreditlaufzeit, der Heiratsstatus sowie der Wohnsitz zu den wichtigsten Eigenschaften gehören, wobei sich diese Erkenntnisse stark mit dem aktuellen Stand der Forschung im Bereich der Kreditwürdigkeit decken. Weiter kann durch die Anwendung von Explainable AI ermittelt werden, welches die optimalen Wertebereiche für die einzelnen Features sind und welche Kombinationen sich begünstigend auf die Kreditgenehmigung auswirken.
Die in der vorliegenden Arbeit aufgezeigten Verfahren können Banken im Kontext der Kreditwürdigkeit helfen die Entscheidungsfindung ihrer Modelle zu verstehen, die gesetzlichen Bedingungen einzuhalten, die Rentabilität des Unternehmens sicherzustellen und Antragsstellern bei der Ablehnung eines Kredits gezielt aufzuzeigen, welches die ausschlaggebenden Faktoren hierfür sind. Insbesondere bei der Erläuterung einer Kreditablehnung gegenüber einem Antragssteller wird die Verwendung von sog. Waterfall-Plots empfohlen, da in diesen der exakte additive Beitrag der einzelnen Merkmale zum Gesamtergebnis ersichtlich ist und diese ohne technische Kenntnisse einfach verständlich sind.2022-01-01T00:00:00ZEinsatz von Robotic Process Automation (RPA) in der öffentlichen Verwaltung
https://digitalcollection.zhaw.ch/handle/11475/26500
Title: Einsatz von Robotic Process Automation (RPA) in der öffentlichen Verwaltung
Authors: Gehring, Ramona
Abstract: Die Digitalisierung ist ein wichtiger Wandlungstreiber in der Wirtschaft und Gesellschaft. Die Veränderungen durch die neuen technischen Möglichkeiten wirken sich auf die Erwartungen und Anforderungen seitens der Mitarbeitenden wie auch der Bevölkerung an die öffentliche Verwaltung aus. Auch gesetzliche Rahmenbedingungen ändern sich stetig und zwingen die öffentliche Verwaltung teilweise in kurzer Frist zu entsprechenden Anpassungen. Um den Ansprüchen gerecht zu werden, benötigt es einen Service Public mit digitalen Angeboten wie auch effiziente und flexible Geschäftsprozesse. Die Prozessautomatisierungstechnologie Robotic Process Automation (RPA) bietet der öffentlichen Verwaltung Chancen diese Aufgaben zu erfüllen.
Aus diesem Grund ist das Ziel der vorliegenden Arbeit, herauszufinden, was Gründe für und gegen den Einsatz von RPA in der öffentlichen Verwaltung sind wie auch mögliche Unter schiede zur Privatwirtschaft im Zusammenhang mit RPA. Weiter soll auch die Höhe des Interessens der Expertengruppe an einem Erfahrungsaustausch im Bereich der Prozessautomatisierung und / oder RPA innerhalb der öffentlichen Verwaltung erhoben werden.
Für die Zielerreichung wird ein qualitativer Forschungsansatz gewählt. Mit Hilfe der Literaturrecherche werden für die Gründe für und gegen den Einsatz von RPA wie auch für den Erfahrungsaustausch erste Kategorien definiert. Danach wird die Expertengruppe basierend auf einem halbstrukturierten Interviewleitfaden befragt. Die Expertengruppe setzt sich aus Fachpersonen aus der öffentlichen Verwaltung und von Lieferanten bzw. Beratungsunternehmen im Bereich der Automatisierung zusammen. In einem weiteren Schritt werden die Aussagen kategorisiert und ausgewertet. Abschliessend erfolgt die Diskussion der Ergebnisse wie auch die Gegenüberstellung zur Literatur, um neue Erkenntnisse ableiten zu können.
Die Literaturrecherche hat gezeigt, dass die öffentliche Verwaltung einem zunehmenden Handlungsdruck ausgesetzt ist. Sie muss flexibel auf Änderungen und neue Aufgaben reagieren können. Aus diesem Grund sehen die Forschenden wie auch die im Rahmen dieser Arbeit befragte Expertengruppe die Hauptgründe für den Einsatz von RPA bei der Optimierung der Personalressourcen durch die Automatisierung von repetitiven Tätigkeiten, beim Einsatz als Brückentechnologie wie auch bei der Unterstützung des Prozessmanagements. Weiter lässt sich aus den Ergebnissen der Experteninterviews schliessen, dass die grössten Herausforderungen bzw. Gründe gegen den Einsatz von RPA in der fehlenden Verantwortung für die Thematik innerhalb der Organisation und den Risiken im Bereich der Akzeptanz der Mitarbeitenden liegen.
Diese Faktoren wurden auch in der Literatur aufgezeigt, konnten durch die Aussagen der Experten jedoch präzisiert bzw. stärker zum Ausdruck gebracht werden. Auch das hohe Interesse an einem Erfahrungsaustausch im Bereich der Prozessautomatisierung und/oder RPA zeigt, dass Mitarbeitende der öffentlichen Verwaltung mehr über die Technologie wissen und von Erfahrungen und Lösungen anderer profitieren möchte. In Bezug auf die Unterschiede zwischen der Privatwirtschaft und der öffentlichen Verwaltung konnte weder durch die Literatur noch durch die Experten eine klare Abgrenzung gemacht werden. Durch die Aussagen der Experten von Lieferanten / Beratungsunternehmen im Bereich der Automatisierung konnten jedoch Aspekte hergeleitet werden, die in der öffentlichen Verwaltung als ausgeprägter wahrgenommen werden. Die Experten stellen hauptsächlich eine starrere Kultur wie auch Richtlinien fest. Als Hauptunterschied wird deshalb die Durchführung einer Submission genannte, die für die öffentliche Verwaltung gesetzlich vorgeschrieben ist.
Diese Arbeit zeigt, dass in der öffentlichen Verwaltung Interesse für den Einsatz von RPA besteht und Potenzial vorhanden ist, jedoch die Verantwortung für solche Technologien innerhalb der Organisation wie auch der Faktor Mensch nicht unterschätzt werden dürfen. Die Empfehlung für weiterführende Forschung ist die Ausarbeitung von geeigneten RPA-Operating-Modellen abgestimmt auf die jeweilige Grösse der Gemeinde, um Verantwortungen genau definieren zu können. Um das Potenzial von RPA noch klarer darlegen zu können, wird empfohlen, bereits umgesetzte Use-Cases mit Kosten-Nutzen-Analyse darzustellen. In Bezug auf den Erfahrungsaustausch ist die Empfehlung, eine geeignete Form zu finden, die den Austausch effizient und gewinnbringend gestaltet.2022-01-01T00:00:00ZDie Zukunft der Seniorenbetreuung : eine Befragung basierend auf einer multilinearen Erzählung
https://digitalcollection.zhaw.ch/handle/11475/26499
Title: Die Zukunft der Seniorenbetreuung : eine Befragung basierend auf einer multilinearen Erzählung
Authors: Feltrin, Nicola Stefano
Abstract: In naher Zukunft steht die Seniorenpflege vor grossen Herausforderungen. Einerseits steht sie einem kritischen Personalmangel in der Branche gegenüber. Andererseits muss das wenige Personal eine immer älter werdende Bevölkerung betreuen, deren Seniorenanteil stetig wächst. Niedrige Geburtenraten in der jüngeren Population und Mangel an Pflegenachwuchs verschlimmern das Problem. Die Technologie hat das Potenzial, diese Problematiken in Zukunft abzuschwächen. Durch Technologien aus den Forschungsbereichen Internet-of-Things und Robotik lassen sich bereits heute Trends erkennen, wohin sich die Seniorenpflege in Zukunft entwickeln wird. Jedoch sind solche Zukunftsszenarien schwer vorstellbar. Auch die Akzeptanz dieser Technologien ist noch weitgehend unerforscht und bedarf zusätzlicher quantitativen und qualitativen Ergebnisse.
Diese Arbeit verfolgt das Ziel, mögliche Zukunftsszenarien anhand der aktuellen Fachliteratur und durch Anwendung einer explorativen Forschungsmethode «Science-Ficition-Prototyping» zu erstellen. Dabei werden zwei Szenarien generiert. Das erste Szenario spielt ab dem Jahr 2030, das zweite ab 2050. Das erste Szenario ab 2030 basiert stark auf dem aktuellen Stand der Forschung. Das Szenario ab 2050 wiederum, soll ein Szenario in der Seniorenpflege darstellen, bei denen hoch entwickelte Technologien eingesetzt werden. Dabei wird ein gewisser Grad an Realismus bewahrt, um die Glaubwürdigkeit der Szenarien nicht zu verfälschen. Beide Szenarien beinhalten eine Makro-, eine Meso- und eine Mirko-Ebene. Diese Mikro-Ebene spielt dabei gänzlich innerhalb einer interaktiven und multilinearen Erzählung, auch Twine genannt. Ein weiteres Ziel dieser Arbeit ist somit die Erstellung der multilinearen Erzählung im Rahmen der Szenarien zu erstellen. Dieses Twine wurde im Verlauf der Arbeit in eine VR-App umgewandelt. Diese ermöglichte es, die multilineare Erzählung in einer 3D-Welt zu erleben und somit die Immersion während der Umfrage zu steigern. Für die Erstellung der 3D-Szenen wird ein Template verwendet. Anschliessend wird eine Gruppe von vier Probanden mittels der multilinearen Erzählung befragt.
Mittels dieser qualitativen Umfrageform konnte ermittelt werden, welche Zukunftstechnologien von der Probandengruppe befürwortet oder abgelehnt wurden und welche Ge danken bei der Entscheidungsfindung eine Rolle gespielt haben. Dabei wurde festgestellt, dass die Entscheidung für die Anschaffung von Sensoren und Gadgets stark vom subjektiv empfundenen Nutzen und der Anwendbarkeit abhängt. Ein weiterer Grund für Akzeptanz eines Gadgets ist, dass dieses mit möglichst wenig Aufwand oder technischem Verständnis verbunden sein muss. Andererseits wird von anderen Probanden eine herkömmliche und bereits bekannte Alternative bevorzugt. Bei der Akzeptanz von Exoskeletten hat sich die befragte Probandengruppe gänzlich für die Anschaffung eines Exoskeletts entschieden. Gründe dafür waren die Hoffnung auf die Verbesserung oder Wiederherstellung der eigenen Mobilität und im weiteren Sinne auch die Erhaltung des eigenen sozialen Umfelds. Der Faktor Mensch wird jedoch auch in Zukunft eine grosse Rolle spielen und wird für einige Subjekte zu entscheidenden Dilemmas führen. Eine hohe Automatisierung und Robotisierung der Branche der Seniorenpflege scheint bei der Probandengruppe nur teilweise auf Zustimmung zu stossen. Vor allem in Bezug auf das Ableben, scheinen sich die Probanden am Ende wieder zur Menschlichkeit zu sehnen. Diese Ergebnisse konnten mit dem Stand der Forschung in Übereinstimmung gebracht werden. Ebenfalls konnte aus der Befragung festgestellt werden, dass sich narrative Umfrageformen, wie das in dieser Arbeit verwendete Twine oder die Unity-VR-App, sich sehr für die Immersion eignen in die Erzählung eignen. Grundsätzlich stiess diese Befragungsform auf grossen Anklang bei der Probandengruppe.2022-01-01T00:00:00ZKlassifikation mit Deep Learning im Bereich Ergo- und Physiotherapie
https://digitalcollection.zhaw.ch/handle/11475/26498
Title: Klassifikation mit Deep Learning im Bereich Ergo- und Physiotherapie
Authors: Bührer, Nils
Abstract: Nachdem Personen einen Schlaganfall erlitten haben, wird mittels mehrerer Übungen untersucht, ob Beeinträchtigungen vorhanden sind. Diese Übungen werden im Normalfall von medizinischem Fachpersonal begutachtet. Bei einer dieser Übung handelt es sich um das Trinken aus einem Glas. Das Ziel dieser Arbeit ist es, diese Trinkbewegungen automatisch mit Deep-Learning-Modellen zu bewerten. Dazu werden Videos von Personen erstellt, welche ein Glas anheben, daraus trinken und es anschliessend wieder hinstellen. Bei der einen Hälfte der Videos handelt es sich um natürliche Trinkbewegungen, bei der anderen Hälfte wird eine kompensierende Bewegung simuliert. Aus den Videos der trinkenden Personen werden die Positionen der wichtigsten Körperteile extrahiert. Die Trinkbewegungen werden analysiert, um Gemeinsamkeiten und Unterschiede zwischen kompensierenden und natürlichen Bewegungen zu finden. Um diese Analyse zu vereinfachen, wurde eine Funktion erstellt, welche die Bewegung der einzelnen Körperteile während des Trinkverlaufes grafisch darstellt. Die Ergebnisse aus der Analyse haben dabei geholfen, die Trinkphasen zu bestimmen.
Die extrahierten Datenpunkte aus den Videos werden nach der Analyse in eine geeignete und einheitliche Form gebracht. Es wurden mehrere Funktionen entworfen, die unterschiedlich eingesetzt werden können. Die Funktionen helfen dabei, verschiedene Ansätze der Klassifikation der Trinkvorgange zu vergleichen. Beim ersten Ansatz werden die Videos dem Deep-Learning-Modell als absolute Datenpunkte übergeben. Die Videos werden so geschnitten, dass der Zeitpunkt, an dem die Hand mit dem Glas den vertikalen Höchstpunkt erreicht hat, exakt in der Mitte ist. Bei einem weiteren Ansatz werden die Datenpunkte der Videos zentriert, bevor sie an die Modelle übergeben werden. Ausserdem wurde ein Ansatz überprüft, bei dem die Distanz zwischen jedem Körperteil und dem Kopf berechnet wird. Bei jedem Ansatz wurden mehrere Varianten der Frame- und Neuronenanzahl geprüft. Es werden mehrere Long-Short-Term-Memory- (LSTM) und Recurrent-Neural-Network-Modelle (RNN) evaluiert. Es stellt sich heraus, dass die Modelle auch mit nur einem Frame als Input sehr gute Ergebnisse liefern.
Bei dem Ansatz, welcher am besten für die Praxis geeignet ist, wurden die Videos in mehrere sich überlagernde Abschnitte unterteilt und mit einem RNN-Modell trainiert. Dieser Ansatz wurde verwendet, um ein Testsystem zu erstellen, bei dem das Livebild der Webcam kontinuierlich klassifiziert wird. Es wird eine Aussage getroffen, wie gross der Anteil der Kompensation während der Trinkbewegung war. Ausserdem wird ein Diagramm erstellt, welches einzelne Zeitabschnitte mit kompensierenden Bewegungen aufzeigt.2022-01-01T00:00:00ZAlgorithmisches Influencer Marketing : inwiefern kann der Prozess des Influencer Marketings automatisiert werden?
https://digitalcollection.zhaw.ch/handle/11475/26497
Title: Algorithmisches Influencer Marketing : inwiefern kann der Prozess des Influencer Marketings automatisiert werden?
Authors: Al Shaal, Ahmad
Abstract: Das Influencer Marketing konnte sich in den vergangenen Jahren als ein effektives Marketinginstrument erweisen. Die Wichtigkeit und Popularität dieses Trends steigen rasant. Daher setzten sich Unternehmen sowie Influencer häufiger mit diesem Thema auseinander. Für Unternehmen stellt das Influencer Marketing einerseits einen Mehrwert und andererseits ein Fragzeichen dar. Zahlreiche Studien berichten über den Nutzen des Influencer Marketings. Weitere zeigen die Schwierigkeiten und Herausforderungen, die einem Unternehmen bei der Durchführung einer Influencer Marketing Kampagne begegnen: Die passenden Influencer zu finden und die Qualitäts- sowie Erfolgsmessung einer Kampagne gehören zu den zwei häufigsten Herausforderungen aus Unternehmenssicht.
Deshalb untersucht die vorliegende Bachelorarbeit wie und ob die IT-Technologien und KI-Algorithmen ein Unternehmen bei den genannten zwei Herausforderungen (das Finden von passenden Influencer und die Erfolgsmessung einer Influencer Marketing Kampagne) unterstützen können. Beziehungsweise wird in dieser Arbeit der Stand der Automatisierung und die Automatisierungspotenziale im Prozess des Influencer Marketings untersucht.
Auf Basis einer umfassenden Literaturrecherche werden Begriffe und Definitionen aus dem Influencer Marketing und der IT erklärt. Zudem werden Modelle analysiert und verwendet, um eine theoretische Grundlage zu ermöglichen. Darauf basierend werden Experten nach ihrem Wissen in diesem Bereich gefragt. Dies wird mithilfe der leitfadengestützten Experteninterviews realisiert. Die interviewten Personen (insgesamt sieben Personen) wurden anhand eines halbstrukturierten Interviewleitfadens nach ihren Erfahrungen und ihrem Wissen gefragt.
Die daraus resultierenden Daten werden mithilfe einer strukturierten qualitativen Inhaltsanalyse ausgewertet. Für die Auswertung und Interpretation der Aussagen der Interviewte Personen wird ein Kodierleitfaden eingesetzt.
Durch die Interviews konnte festgestellt werden, dass Unternehmen positive sowie negative Erfahrungen mit Influencer hatten, häufiger jedoch sind die positiven Erfahrungen. Die interviewten Personen besitzen zudem keinen Leitfaden für die Durchführung einer Influencer Marketing Kampagne und stützen sich oftmals auf andere Mitarbeitende, Vorgesetzte oder eine externe Beratung. Die meisten interviewten Personen nutzen eine Kombination von Influencer Marketing Tools und manueller Arbeit. Bei keiner der interviewten Personen konnte der Prozess des Influencer Marketings erfolgreich automatisiert werden. Die interviewten Personen zeigten, dass das Influencer Marketing sowie die Influencer Marketing Tools eine wesentliche Rolle spielen. Durch die Interviews konnten Herausforderungen (wie fehlendes Knowhow, das Verstehen von Humor und Instagram und deren Schnittstelle) und Automatisierungspotenziale für das Matchmaking, die Erfolgsmessung und die das Finden der passenden Influencer erkannt werden. Basierend auf den Herausforderungen konnten gewisse interviewte Personen eine Gegenposition zur Automatisierung bilden. Des Weiteren wurde in dieser Arbeit in Anlehnung an die AI Marketing Matrix nach Gentsch die KI Influencer Marketing Matrix entworfen.2022-01-01T00:00:00ZVerbesserungen der virtuellen Arbeitskultur durch Gamification
https://digitalcollection.zhaw.ch/handle/11475/24648
Title: Verbesserungen der virtuellen Arbeitskultur durch Gamification
Authors: Schwab, Simon
Abstract: Flexible und ortsunabhängige Arbeitsformen stellen in vielerlei Hinsicht eine Win-win-Situation für Arbeitgeber und Arbeitnehmer dar. Aufgrund der fortschreitenden Globalisierung, dem technischen Fortschritt und der bevorzugten Arbeitsweise der Generation Z nimmt die Nachfrage nach virtuellen Arbeitsformen zu. Zudem trägt auch die Corona-Krise dazu bei, virtuelle Arbeitsformen längerfristig zu etablieren. Jedoch bringt der Wandel von einem traditionellen hin zu einem virtuellen Arbeitsplatz auch neue Herausforderungen und Probleme mit sich. Mangelnder sozialer Austausch im Team sowie fehlende Motivation der Angestellten kann zu verschlechterter Zusammenarbeit und Isolation von einzelnen Teammitgliedern führen.
In dieser Bachelorarbeit wird daher untersucht, wie den genannten Herausforderungen mit Hilfe einer Applikation entgegengewirkt werden kann. Es wird eine Applikation umgesetzt, welche einen virtuellen Arbeitsplatz simuliert und Gamification einsetzt. Ziel dieser Arbeit ist es, eine soziale Umgebung für Personen in virtuellen Arbeitsformen zu schaffen, welche das Risiko der Selbstisolation reduziert.
Anhand eines Minimum Viable Products und der Anwendung verschiedener Konzepte der Gamification wird untersucht, wie zur Lösung des Problems beigetragen werden kann. Vorgängig erfordert dies eine Erarbeitung der theoretischen Grundlagen, wobei ein Konzept für die Verwendung von Gamification in einer solchen Anwendung erstellt wird. Weiter wird in dieser Arbeit die Planung und Implementation des Frontend-Teils durchgeführt, während zeitgleich die Um-setzung des Backends durch einen anderen Studierenden stattfindet. Zur Validierung des Minimum Viable Products wurde ein Testlauf mit Personen, welche in virtuellen Arbeitsformen beschäftigt sind, durchgeführt.
Durch die Verwendung der implementierten Applikation entwickelt sich bei Personen, welche in virtuellen Arbeitsformen beschäftigt sind, ein Gemeinsamkeitsgefühl. Dieses wirkt motivierend und trägt zur sozialen Zugehörigkeit bei. Die Personen fühlen sich weniger isoliert. Zudem wird das Bedürfnis nach sozialem Austausch zwischen den Teammitgliedern gesteigert. Die durch Gamification entstehenden Spieldynamiken wirken auf die Nutzenden motivierend und schaffen ein anspornendes Arbeitsumfeld. Der Einsatz von Gamification ist aber vorhergehend genau zu analysieren, da die verschiedenen Methoden unterschiedlich auf Einzelpersonen und Teams wirken.
Mit dem erarbeiteten Minimum Viable Product wurde gezeigt, dass eine Anwendung, welche einen virtuellen Arbeitsplatz simuliert und Gamification einsetzt, dazu beiträgt die Zusammenarbeit in Teams zu verbessern. Die Ergebnisse der Evaluation zeigen zudem, dass durch die Applikation das Risiko der Selbstisolation minimiert wird. Dementsprechend ist die Weiterentwicklung der Anwendung zu verfolgen und weitere Abklärungen durchzuführen, um das quantifizierbare Potential sowie den effektiven Nutzen der Anwendung zu bestimmen.2021-01-01T00:00:00ZVerbesserungen der virtuellen Arbeitskultur durch Gamification
https://digitalcollection.zhaw.ch/handle/11475/24647
Title: Verbesserungen der virtuellen Arbeitskultur durch Gamification
Authors: Mettler, Marcel
Abstract: Durch die Digitalisierung, besseren Netzwerkverbindungen und wachsende Infrastruktur wird es immer einfacher von virtuellen Arbeitsplätzen aus zu arbeiten. Virtuelle Arbeitsformen wie Homeoffice, Remote Work oder hybride Versionen davon nehmen stetig zu. Gerade während der Covid-19 Pandemie wurden mehr Arbeitnehmer und Arbeitgeber mit dieser Thematik konfrontiert, da viele Arbeitnehmer gesetzlich im Homeoffice arbeiten mussten und somit erste Erfahrungen mit dieser Arbeitsform sammeln konnten. Erste Umfragen zeigen, dass diese Form der Arbeit bei vielen beliebt ist und es sich nur wenige Personen vorstellen können, wieder in einen absoluten Büroalltag zurückzukehren. Jedoch bringt das Arbeiten zuhause auch Nachteile mit sich. Arbeitnehmer beklagen sich über die Isolation und die dadurch fehlenden sozialen Interaktionen, was zu schwerwiegenden psychischen Folgeerkrankungen führen kann.
Daraus entwickelt sich die Frage, ob eine Applikation, welche einen virtuellen Arbeitsplatz simuliert, dazu beitragen kann dieses Problem zu lösen und somit das Isolationsgefühl mindert. Zusätzlich soll die Arbeitsmoral gesteigert werden, ohne, dass sich durch diese Applikation Arbeitnehmer überwacht vom Arbeitgeber fühlen.
Für die Beantwortung dieser Frage wurden zuerst mithilfe von Literaturrecherche die theoretischen Grundlagen zu virtuellen Arbeitsformen und die gesetzlichen Grundlagen zum Sammeln und Speichern von Daten erarbeitet. Anhand der gesammelten Informationen wurde in der vorliegenden Arbeit eine solche Applikation geplant und anschliessend der Backend dieser Applikation umgesetzt. In einer weiteren Arbeit wurde zeitgleich der Frontend implementiert, um somit ein Minimal Viable Product zu erhalten. Die Applikation simuliert ein virtuelles Office, welches verschiedene Räume wie ein Grossraumbüro, einen Meeting Raum und eine Küche enthält. Jeder User hat einen eigenen virtuellen Avatar, mit dem er sich im virtuellen Office frei bewegen kann. Zudem wurden verschiedene Gamification Elemente, wie Quests und ein Leaderboard, eingebaut.
Mithilfe des erstellten Minimal Viable Product konnte die Akzeptanz, sowie die Lösung des Problems, mittels dieser Applikation geprüft werden. Die Validierung hat ergeben, dass sich Personen, welche die Applikation verwendet haben, verbundener mit ihren Kollegen im Office gefühlt haben. Die implementierten Gamification Elemente führten zu einer Abwechslung im Alltag, was die Motivation steigern konnte. Zudem gab es eine Möglichkeit sich mit seinen Kollegen zu messen und zu vergleichen.
Da sich User frei im Office bewegen konnten, hatten sie die Möglichkeit, selbst zu entscheiden, wie viele Informationen sie über ihren aktuellen Status preisgeben wollten. Dadurch entstand kein Überwachungsgefühl.2021-01-01T00:00:00ZAffective Computing : Freundschaft am Rande der technologischen Singularität
https://digitalcollection.zhaw.ch/handle/11475/24579
Title: Affective Computing : Freundschaft am Rande der technologischen Singularität
Authors: Steiner, Thierry
Abstract: Durch den technologischen Wandel wird die Entwicklung der Künstlichen Intelligenz weiter vorangetrieben. Der Teilbereich der KI-Technologie, der sich mit dem Verarbeiten impliziter Inhalte, wie zum Beispiel den menschlichen Emotionen, auseinandersetzt, wird als Affective Computing bezeichnet. Affective Computing befasst sich mit der Idee, dass eine KI im Stande ist, menschliche Gedankengänge zu erfassen, zu verarbeiten und selbst zu simulieren. Die Weiterentwicklung von Affective Computing wird einerseits durch die fehlende Quantifizierbarkeit von menschlichen Gedankengängen und andererseits durch nicht ausreichende Leistungsfähigkeit der Hardware in tragbarer Form ausgebremst. Aus diesem Grund rechnen Experten damit, dass Affective Computing erst um das Jahr 2040 funktionsfähig sein wird. Aufgrund der Tatsache, dass es sich hier erst um eine technologische Vision handelt, ist nicht klar, ob diese bei den Menschen Anklang finden wird. Um diese Unklarheit einzudämmen, bietet sich das Formulieren von fiktiven, multilinearen Geschichten (Sci-Fi-Prototyping) an, um die Thematik an ausgewählte Probanden heranzutragen. Durch diese Konfrontation können die Wahrnehmung und die sozialen Auswirkungen (z.B. Freundschaft) von Affective Computing beschrieben und erforscht werden. Im Kontext der Wahrnehmung stellen die Begriffe Vorstellbarkeit und Wünschbarkeit zentrale Messwerte dar, um herauszufinden, ob eine künftige Technologie erstrebenswert ist.
Basierend auf einer bereits bestehenden multilinearen Geschichte wird in der vorliegenden Bachelor-Thesis dazu eine empirische Untersuchung durchgeführt. Für die Untersuchung wird die quantitative Methode der Onlinebefragung gewählt. Um die Veränderung in der Wahrnehmung durch das Szenario zu messen, wird eine Vor- und Nachbefragung durchgeführt. Das Ziel dieser erneuten Untersuchung mit der quantitativen Methode ist, die Anzahl der befragten Probanden zu erhöhen und somit, wenn möglich, eine höhere Signifikanz der Resultate zu erzielen.
Basierend auf dem Rücklauf der Onlinebefragung wird mit statistischen Methoden (Wil-coxon-Test, Korrelationskoeffizient) die Signifikanz dieser geprüft und auf die Hypothesen übertragen, womit diese veri- oder falsifiziert werden.
Aus der Untersuchung der Stichprobe ging hervor, dass zwar die Vorstellbarkeit von Affective Computing durch ein Szenario signifikant beeinflusst werden kann, nicht aber die Wünschbarkeit. Die Forschungsfrage, ob ein multilineares Szenario Einfluss auf die Wahrnehmung von Menschen hat, kann folglich mit einem bedingten Ja beantwortet werden. Es ist wichtig, an dieser Stelle zu erwähnen, dass die Untersuchung zwar eine Tendenz abzeichnet, aber aufgrund der kleinen Stichprobe nicht auf die Allgemeinheit anwendbar ist.
Die Untersuchung anhand eines Sci-Fi-Prototypen durchzuführen, eignet sich einerseits, weil die Erschaffung verhältnismässig geringen Aufwand benötigt und andererseits wird durch die einfache Zugänglichkeit über das Internet die Partizipation maximiert. Für weitere Untersuchungen sollte die technische Umsetzung beibehalten, aber die Stichprobe vergrössert und aussagekräftiger gestaltet werden.2021-01-01T00:00:00ZDer Forschungsstand zu Deepfakes und deren Erstellung
https://digitalcollection.zhaw.ch/handle/11475/24578
Title: Der Forschungsstand zu Deepfakes und deren Erstellung
Authors: Wegmann, Yves
Abstract: Fortschritte im Bereich der künstlichen Intelligenz und neuronalen Netzwerken haben zur Generierung von realistischen gefälschten Inhalten geführt. Diese neue Technologie mit dem Namen Deepfake hat sich in den letzten Jahren enorm weiterentwickelt und eine grosse Vielfalt von gut- und bösartigen Anwendungen gefördert. Einfach zugängliche Tools bieten die Möglichkeit, jemanden darzustellen, der bestimmte Dinge sagt und tut, die nie passiert sind. In Kombination mit der Reichweite und Geschwindigkeit von sozialen Medien können Deepfakes in kürzester Zeit eine hohe Anzahl von Leuten erreichen. Rasant haben Wissenschaftler und Deepfake-Communities Forschungen zur Deepfake-Erzeugung und Deepfake-Erkennung durchgeführt, wobei jeweils die Verbesserungen der einen Seite die andere antreibt und neue Methoden entstehen. Dennoch ist der Über-blick über diese neuen Ansätze sowie die Verbreitung von Deepfakes vernachlässigt worden.
Die vorliegende Arbeit untersucht den Forschungsstand zur Verbreitung und Erstellung von Deepfakes. Dabei werden anhand einer Literaturrecherche die verschiedenen Kategorien zur Erzeugung von Deepfakes vorgestellt und der Nutzen sowie die Bedrohungen, die sich aus den synthetischen Inhalten ergeben, diskutiert. Ebenso werden aktuelle Lösungsansätze zur Entdeckung und Bekämpfung von böswilligen Deepfakes vorgestellt. Mithilfe von zwei durchgeführten Studien kann die aktuelle Verbreitungslandschaft der neuen Technologie erläutert werden. Eine Artikelsuche von elf ausgewählten Zeitungen aus verschiedenen Regionen der Schweiz analysiert die grobe Berichterstattung zum Thema und bekräftigt die Annahme über ein geringes Verständnis von Deepfakes in der Schweizer Bevölkerung. Mit eigenem Videomaterial und einer der am häufigsten verwendeten Anwendung zur Erzeugung von Deepfakes wird ein eigenes synthetisches Video erstellt.
Insgesamt sind fünf verschiedene Erzeugungskategorien identifiziert sowie deren Einsatzmöglichkeiten und bestehende Herausforderungen erläutert worden. Die Studien zur Verbreitung von Deepfakes zeigen alle sechs Monate eine Verdoppelung der synthetischen Inhalte und liefern relevante Erkenntnisse über die Herkunft und Berufe der Opfer sowie den Einsatz der Deepfakes. Anhand der Erstellung eines eigenen gefälschten Inhaltes kann das Verständnis über den Aufwand und die einzelnen Arbeitsschritte verstärkt werden. Durch die aufgetretenen Herausforderungen sind zudem neue Ansätze zur Minderung dieser Probleme präsentiert worden. Die Literaturrecherche hat ausserdem einen bedeutenden Einblick in die Nutzung und Bedrohungen sowie möglichen Lösungsmethoden zur Entdeckung und Bekämpfung von Deepfakes ergeben.
Die Arbeit zeigt auf, dass Deepfakes ohne Expertenkenntnisse erstellt werden können und ein grosses Forschungspotenzial im Bereich der Verbreitungslandschaft besteht. Der um-fassende Einblick in die Generierung eines Deepfakes hilft ein Verständnis über die neue Technologie zu schaffen. Die Erkenntnisse im Bereich der Verbreitung sowie die fünf identifizierten Erzeugungskategorien können für weitere Forschungsarbeiten auf diesen Gebieten verwendet werden.2021-01-01T00:00:00ZRobotic Process Automation (RPA) in einer Pensionskasse : können Versichertenverwaltungsprozesse einer Pensionskasse durch RPA automatisiert werden, und welche Chancen und Herausforderungen aus Unternehmens- und Mitarbeitendensicht entstehen dabei?
https://digitalcollection.zhaw.ch/handle/11475/24577
Title: Robotic Process Automation (RPA) in einer Pensionskasse : können Versichertenverwaltungsprozesse einer Pensionskasse durch RPA automatisiert werden, und welche Chancen und Herausforderungen aus Unternehmens- und Mitarbeitendensicht entstehen dabei?
Authors: Locher, Mario Gian
Abstract: Die Digitalisierung und der damit einhergehende technologische Wandel zwingen Unternehmen dazu, sich stetig weiterzuentwickeln. Diese Weiterentwicklung benötigt entsprechende personelle Ressourcen. Da die Menge an zu verarbeitenden Daten und auch die Komplexität der Geschäftsprozesse immer weiter zunimmt, bedarf es daher einer kontinuierlichen Verbesserung der internen Prozesse und der eingesetzten Technologien. Um die Prozesse möglichst effizient abzuwickeln, wird es notwendig, Optimierungs- und Automatisierungspotenziale zu erkennen. Die Erkennung und Nutzung dieser Potenziale ermöglicht eine Freisetzung von Personalkapazitäten, die in die Weiterentwicklung des Unternehmens fliessen können. Vor allem repetitive und häufig auftretende Prozesse gilt es zu optimieren und zu automatisieren, da dadurch die grössten Effekte erzielt werden. Neben den freiwerdenden Kapazitäten lässt sich auch die Zufriedenheit der Angestellten steigern, da sie sich um spannendere und wissensintensivere Aufgaben kümmern können. Eine Möglichkeit solche Prozesse zu automatisieren und die Mitarbeitenden bei der Bearbeitung zu entlasten, bietet Robotic Process Automation (RPA). Daher wurde in dieser Bachelorarbeit das Potenzial von RPA zur Automatisierung von Versichertenverwaltungsprozessen in der Pensionskasse Stadt Zürich (PKZH) betrachtet.
Ziel der Arbeit war darzulegen, ob es in der PKZH Versichertenverwaltungsprozesse gibt, die durch den Einsatz von RPA automatisiert werden können. Daneben sollte aufgezeigt werden, welche Herausforderungen und Chancen aus Unternehmens- aber auch Mitarbeitendensicht mit einer Einführung von RPA einhergehen. Um eine Entscheidungsfindung zum Einsatz von RPA in der PKZH zu erleichtern, wurden die Potenziale von RPA beleuchtet, aber auch die Grenzen der Technologie aufgezeigt.
Zur Beantwortung der Forschungsfrage wurden neben der Betrachtung der verfügbaren Literatur eine Umfrage bei den Mitarbeitenden sowie zwei Experteninterviews durchgeführt. Die Mitarbeitendenumfrage diente der Evaluierung der Technologieakzeptanz im Unternehmen sowie der Erkennung von Prozessen mit Automatisierungspotenzial. Die Experteninterviews repräsentieren die Fach- und IT-Sicht im Bezug auf die Automatisierung von Geschäftsprozessen in der PKZH. Neben den genannten Forschungsmethoden wurde ein RPA-Prototyp entwickelt, der die Potenziale der Technologie veranschaulicht.
Die Erkenntnisse der Arbeit zeigen, dass es in der PKZH mehrere Versichertenverwaltungsprozesse gibt, welche die Kriterien für eine (Teil)-Automatisierung mit RPA erfüllen. Eine (Teil)-Automatisierung dieser Prozesse kann die Sachbearbeitenden in ihrem Arbeitsalltag entlasten und Kapazitäten freisetzen, die für die Weiterentwicklung der PKZH eingesetzt werden können.
Demgegenüber stehen die auftretenden Herausforderungen, die zu bewältigen sind. Es benötigt einen effizienten und ganzheitlichen Automatisierungsansatz, um die grösstmöglichen Effekte zu erzielen. Zur Erkennung von Optimierungs- und Automatisierungspotenzialen sind die Prozesse genau zu definieren und zu dokumentieren. Eine vorgängige Prozessoptimierung maximiert das Automatisierungspotenzial und somit auch eingesparte Ressourcen. Fach- und IT-Abteilung müssen eng zusammenarbeiten, um möglichst effiziente und stabile RPA-Prozesse zu entwickeln. Zudem ist der frühe Miteinbezug der betroffenen Mitarbeitenden ein massgeblicher Erfolgsfaktor. Ängste und Widerstände lassen sich dadurch minimieren und neue Potenziale für Automatisierungen werden ersichtlich.2021-01-01T00:00:00ZDer Einfluss von Fake News auf die Schweizer Medienlandschaft und deren Stakeholder : wie beeinflussen Fake News die Medienlandschaft in der Schweiz, insbesondere in Bezug auf Deepfakes, und wie reagieren betroffene Stakeholder - unter Betrachtung der Wirkungsketten - auf diese neue Situation?
https://digitalcollection.zhaw.ch/handle/11475/24576
Title: Der Einfluss von Fake News auf die Schweizer Medienlandschaft und deren Stakeholder : wie beeinflussen Fake News die Medienlandschaft in der Schweiz, insbesondere in Bezug auf Deepfakes, und wie reagieren betroffene Stakeholder - unter Betrachtung der Wirkungsketten - auf diese neue Situation?
Authors: Bräm, Fabian
Abstract: Spätestens seit den US-Amerikanischen Präsidentschaftswahlen von 2016 ist der Ausdruck Fake News allgegenwärtig und hat über die Jahre immer wieder für Schlagzeilen gesorgt. Was geschichtlich schon mit limitierten Möglichkeiten zu grossen Problemen führte, profitiert in jüngster Zeit von der Veränderung des Medien-Ökosystems, wobei primär die rasante Verbreitung von Online-Nachrichten, insbesondere über soziale Netzwerke, als problematisch identifiziert wird. Zusätzlich verändern Technologien wie Deepfakes, welche immer glaubwürdiger und zugänglicher werden, die Dynamik von Fake News. Diese Arbeit behandelt, wie Fake News und Deepfakes die Medienumwelt beeinflussen. Dies wird anhand der Schweizer Medienlandschaft im Allgemeinen sowie konkreter bei den Stakeholdern Konsumierende, Medienschaffende und traditionelle Medienunternehmen betrachtet.
Die theoretische Grundlage dieser Arbeit wird anhand einer Literaturanalyse aufgezeigt, wobei eine Verbindung zur Schweizer Medienlandschaft hergestellt wird. Basierend auf diesen Erkenntnissen und unter zusätzlicher Betrachtung von recherchierten Beispielen, wird induktiv ein Wirkungsketten-Modell erarbeitet. In diesem Modell werden die Phasen und Stakeholder identifiziert und analysiert. Ergänzt werden diese Untersuchungen durch eine quantitative Umfrage zum Konsumverhalten bei Studierenden in der Schweiz und durch qualitative Experteninterviews mit ausgewählten Medienschaffenden.
Die Ergebnisse dieser Arbeit zeigen auf, dass auch die Schweiz anfällig für Fake News ist, aber über Eigenschaften verfügt, um die Problematik mitigieren zu können. Die empirische Forschung stellt eine Sensibilität der Stakeholder für diese Thematik fest. Dabei gehört das Überprüfen von Informationen bei der befragten Zielgruppe und eine erhöhte Achtsamkeit von Medienschaffenden im Umgang mit Informationen zur neuen Selbstverständlichkeit. Schweizer Medienunternehmen arbeiten schon länger mit strikten Verifikationsprozessen und Qualitätssicherungen, die durch die jüngsten Entwicklungen nicht wesentlich angepasst werden mussten. Trotzdem führen einige Unternehmen zur Unterstützung im Kampf gegen Fake News weitere Instanzen ein, vor allem für technische Aspekte. Bezüglich Deepfakes ist die erwartete Menge bisher ausgeblieben. Dies führt dazu, dass die Medienunternehmen durch eine differenzierte Einschätzung der Situation, unterschiedliche Vorgehen wählen.
Abschliessend ist zu empfehlen, dass die Konsumierenden eine kritische Haltung bezüglich Informationsinhalt und -medium einnehmen und sich aktiv in differenzierte Diskussionen einbringen. Dies senkt die Anfälligkeit für Fake News. Die Gefahr der Weiterverbreitung von Falschinformationen durch Medienunternehmen, auch in der Absicht, diese zu korrigieren, kann problematisch sein, weshalb dies kritisch beurteilt werden soll. Zusätzlich sollen die Mitarbeitenden auf neue Technologien sensibilisiert und die aktuellen Entwicklungen genau verfolgt werden. Zudem wird dem Staat empfohlen, durch gesetzliche Rahmenbedingungen die Qualität der Berichterstattung in der Schweiz zu unterstützen und zu sichern.2021-01-01T00:00:00ZDie Wächter über Wahrheit und Fake : Mensch oder Maschine / Politiker oder Unternehmer
https://digitalcollection.zhaw.ch/handle/11475/24575
Title: Die Wächter über Wahrheit und Fake : Mensch oder Maschine / Politiker oder Unternehmer
Authors: Müller, Dominic Daniel
Abstract: Mit dem Aufkommen der sozialen Medien hat sich das Wesen der Informationsbewertung/-verteilung stark verändert und es sind neue Herausforderungen und Gefahren dazugekommen. Durch Ereignisse wie die US-Präsidentschaftswahl oder das Brexit-Referendum 2016 hat sich diesbezüglich der Begriff Fake News etabliert und wird in der Medienlandschaft häufig missbräuchlich verwendet.
Im Rahmen dieser Arbeit werden folgende Forschungsfragen beantwortet: (1) Welche neuen Herausforderungen und Gefahren ergeben sich bezüglich der Informationsbewertung/-verbreitung im Zusammenhang mit dem Aufstieg der sozialen Medien als Informationsquelle? (2) Ab wann wird von Desinformation gesprochen, wie unterscheidet sich Desinformation vom Begriff Fake News und welche neuen Erkenntnisse wurden mit dem Aufstieg der sozialen Medien gemacht? (3) Wer hat die Möglichkeit, den Informationsfluss online beziehungsweise in den sozialen Medien zu beeinflussen und aufgrund von welchen Indizien wird dieser Entscheid getroffen?
Bei der vorliegenden Meta-Studie handelt es sich um eine reine Literaturarbeit. Um die drei erwähnten Forschungsfragen zu beantworten, wird eine auf diversen wissenschaftlichen Online-Datenbanken basierende systematische Literaturrecherche durchgeführt, bei welcher nur englischsprachige Literatur der letzten 10 Jahren berücksichtigt wird.
Die Literatur zeigt, dass vor allem die Personalisierung für User in den sozialen Medien Gefahren birgt und durch Echokammern und Filterblasen zu Polarisierung und Extremismus führen kann. Auch die Nachrichtenorganisationen stehen vor Herausforderungen und sind nicht mehr alleinige Agenda-Setting-Macht, sondern werden allmählich von den sozialen Medien verdrängt. Bezüglich der Definition von Fake News werden in der Literatur die Absicht, der Grad der Falschheit beziehungsweise die Faktizität, sowie die Tarnung als Nachricht als Kernpunkte genannt. Über eine allgemeingültige Definition ist sich die Wissenschaft nicht einig und trotzdem fällt beim Vergleich von Fake News mit dem Begriff Desinformation auf, dass die Definitionen keine grossen Unterschiede aufweisen. Da der Begriff Fake News im politischen Kontext oft missbräuchlich genutzt wird, um nahezu jeden Inhalt zu charakterisieren, der im Widerspruch zu den Ansichten oder der Agenda einer bestimmten Partei steht, soll dieser gemäss der diskutierten Literatur ver-mieden werden. Mit der steigenden Popularität der sozialen Medien als beliebte Plattform für die Nachrichtenverbreitung wird jeder Akteur, der dem Inhalt/der Information/der Nachricht ausgesetzt ist, zu einem potenziellen Gatekeeper. Neben den User sind mit den Plattformen auch die Algorithmen zu Gatekeeper geworden. Diese beiden neuen Akteure sind im Unterschied zu den Redaktoren als traditionelle Gatekeeper sehr unerfahren, was zur Verbreitung von Desinformation beziehungsweise Fake News beitragen und die Demokratie gefährden kann.
Es ist wichtig, dass das Thema Informationsbewertung/-verbreitung vor allem in Bezug auf die immer grösser werdende Macht der sozialen Medien in allen Belangen weiterhin beobachtet und diskutiert wird.2021-01-01T00:00:00ZMachine Learning Operations : vom Modell als Datei zum Prototyp mit Userinteraktion
https://digitalcollection.zhaw.ch/handle/11475/24574
Title: Machine Learning Operations : vom Modell als Datei zum Prototyp mit Userinteraktion
Authors: Schlittler, Robert
Abstract: Machine Learning (ML) gewinnt zunehmend an Bedeutung und wird in zahlreichen Domänen zur datengetriebenen Entscheidungsfindung und Kreierung von innovativen Produkten und Dienstleistungen verwendet. Die Komplexität zur Entwicklung und Anwendung von ML-Algorithmen wurde im Laufe der letzten Jahre stark abstrahiert, was in einer signifikant verbesserten Zugänglichkeit resultiert. Der Prozess zur Entwicklung eines ML-Modells endet meist mit dem trainierten Modell als Datei, welche wiederum mit statischen Aufrufen im Code auf dem Computer der entwickelnden Person getestet wird. Damit eine Interaktion zwischen dem ML-Modell und Menschen möglich ist, wird eine Schnittstelle mit grafischer Oberfläche benötigt. Die Integration eines Modells in eine solche Applikation ist geprägt von repetitiven Arbeitsschritten und erfordert fundierte Kenntnisse im Bereich der Backend- und Frontend-Entwicklung. Sowohl diese Programmierkenntnisse als auch das nötige Wissen für das Deployment einer Webapplikation gehören jedoch nicht zu den typischen Fähigkeiten einer ML-Fachkraft.
Diese Arbeit entwickelt ein Framework, welches die Integration eines ML-Modells in eine Webapplikation vereinfacht. Die Zielgruppe des erstellten Artefakts sind Personen aus der Lehre und Studierende. Der Einsatz im Unterricht der ZHAW School of Management and Law (SML) im Studiengang Wirtschaftsinformatik bildet die Ausgangslage für den ersten Einsatzbereich der erstellten Lösung. Die anwendenden Personen möchten ihre ML-Modelle aus Studienprojekten oder Semesterarbeiten als Prototyp der Öffentlichkeit zugänglich machen.
Um die Zielarchitektur und die benötigten Funktionalitäten zu definieren, wird der Prozess zur Generierung einer Modellvorhersage analysiert und abstrahiert. Davon ausgehend wird ein zu unterstützendes Modellformat evaluiert, welches sowohl den Einsatz an der SML als auch die Zugänglichkeit für weitere interessierte Personen sicherstellt. Anschliessend beschäftigt sich diese Arbeit hauptsächlich mit der Erstellung einer Codebasis zusammen mit einem detaillierten Handbuch.
Das erstellte Framework mit dem Namen ML-Starter ermöglicht es, eine Webapplikation ohne Kenntnisse im Front- oder Backend-Bereich in Betrieb zu nehmen und diese im Internet zu veröffentlichen. Mithilfe der Publizierung der Codebasis auf GitHub1 sowie einem Beitrag auf der Online Publikationsplattform Medium2 wird der Diskurs über das erstellte Artefakt gefördert. ML-Starter leistet somit einen wertvollen Beitrag für einen holistischeren Entwicklungsprozess von ML-Modellen im Bereich der Lehre.
Durch die Verwendung des erstellten Artefakts im Rahmen des Unterrichts an der ZHAW School of Management and Law wird die Weiterentwicklung und kontinuierliche Verbesserung des Frameworks vorangetrieben. Zukünftige Arbeiten können den Prozess zur Inbetriebnahme eines Prototyps zusätzlich automatisieren.2021-01-01T00:00:00ZUsing deep learning and explainable AI to predict and explain loan defaults
https://digitalcollection.zhaw.ch/handle/11475/24573
Title: Using deep learning and explainable AI to predict and explain loan defaults
Authors: Sulejmani, Sakip
Abstract: The use of machine learning in finance is increasing, and while deep learning models are becoming the state of the art to make predictions, the difficulty of interpreting them is a drawback. This is especially so in finance, where each result that a model outputs must be explainable and justifiable. In recent years, novel explainable AI methods have been researched and developed to explain deep learning models and their decisions.
The aim of this bachelor thesis was to analyze a use case in credit scoring, specifically in loan defaulting, with deep learning and explainable AI. It also aimed to show that deep learning can be used to predict loan defaults in finance, that explainable AI methods offer insights for interpreting the black box’s internal decisions, and furthermore, that it is possible to improve models with insights from explainable AI.
A peer-to-peer loan dataset from Bondora with 164,547 instances and 112 features was analyzed, pre-processed, and prepared for deep learning. Multiple neural networks with different parameters were fitted and evaluated to find the best hyperparameters for loan default predicting with the dataset. A post hoc analysis with SHAP was applied to the best model to retrieve insights from it. These insights were then used to explain the model’s decisions and to adjust it.
The results show that the model has an AUC of 0.72 and can therefore differentiate between a defaulted and a not defaulted loan with a probability of 72%. In addition, a recall of 0.88 was reached, meaning the model predicts 88% of defaulted loans correctly. Furthermore, the insights gained from explainable AI enabled the creation of a second, adjusted model that reached equally good performance with only half of the features. Moreover, the explainable AI insights were used to determine and analyze the fifteen features which influence the model the most. The three most influential were debt-to-income, applied amount and loan duration. Additionally, two loan instances from the dataset were analyzed in detail with SHAP.
In conclusion, using deep learning and explainable AI we were able to predict loan defaults, and interpret as well as explain the model’s decisions. Moreover, the explainable AI insights could be used to adjust and improve the model. A complete use case in credit scoring is shown in this thesis, highlighting that deep learning and explainable AI can be used in finance. However, the gained insights from the explainable AI methods were very specific to the used dataset and therefore further research with different datasets would be interesting.2021-01-01T00:00:00ZAI-Recycling : Objektklassifizierung im Recyclinghof Hagenholz
https://digitalcollection.zhaw.ch/handle/11475/24572
Title: AI-Recycling : Objektklassifizierung im Recyclinghof Hagenholz
Authors: Roth, Lukas
Abstract: Durch den kontinuierlich wachsenden Rohstoffverbrauch weltweit, ist die effiziente Nutzung und Wiederverwendung von Werkstoffen von zentraler Bedeutung. Im Recyclinghof Hagenholz (RH) werden in 25 Containern Materialien getrennt gesammelt. Die Zuordnung ist, durch die Vielfallt an Sammelkategorien, für viele Kunden schwierig und immer wieder landen Objekte in den falschen Containern.
Diese Arbeit zeigt eine Lösung auf, wie mittels eines Machine Learning Models ein Objektklassifikator erstellt werden kann, welcher anhand eines Fotos des Recyclingobjektes, dessen Klassifizierung der Sammelkategorie liefern kann. Das Model kommt in einer Mobile-App zum Einsatz und soll dem Kunden des RH die Unterstützung bei der korrekten Zuordnung des mitgebrachten Materials bieten.
Das methodische Vorgehen besteht aus drei Teilen: der Datenerhebung für das Image Dataset, der Modellentwicklung und der Entwicklung des Prototyps. Die Datenerhebung umfasst das Sammeln eigener Fotos aus dem RH, die Evaluierung öffentlicher Datasets sowie die Methode des Image-Scraping. Bei der Modellentwicklung wurde ein Modell von Grund auf, sowie zwei Modelle mittels der Retraining-Methode, auf Basis der vortrainierten Modelle mit MobileNet bzw. EfficientNet entwickelt. Validiert wurden die Modelle mittels Out-Of-Sample (OOS) und K-Fold Cross Validation (KFCV). Das Retrained MobileNetV3 Model (RMM) wurde in die entwickelte Android App integriert und abschliessend im RH einem Feldtest unterzogen.
Das Dataset besteht aus 24 Klassen, aus jeweils ca. 600 Bildern. Die darauf trainierten Modelle haben wie folgt abgeschnitten: Das einfache Modell konnte im OOS 46.8, bzw. 46.2 Prozent Genauigkeit in der KFCV erreichen. Das RMM konnte eine Genauigkeit von 85.9 (OOS), bzw. 88.34 Prozent in der KFCV und mit dem Retrained EfficientNet-B0 Model (REM) liegt die Genauigkeit bei 86.7 in OOS, bzw. 87.6 Prozent in der KFCV. Die Confusion Matrix (CM) zeigte Defizite des RMM in den Klassen Elektro, Mischmaterialen, Metall, sowie Buntmetall. Im Feldtest konnte der Prototyp in 32 von 40 Tests den richtigen Container erkennen, wobei sichtbar wurde, dass in der Klasse Sperrgut die Erkennung sehr schlecht ist und die Kategorien Elektro, Mischmaterialien und Metall, im Vergleich zur CM gut abschnitten.
Diese Arbeit zeigt, dass mittels vortrainierter Modelle und eines verhältnismässig kleinen Datasets, aus vielen Klassen, bereits eine gute Erkennung erreicht werden kann. Es zeigt sich jedoch, dass es schwierig ist, Klassen vollständig abzubilden, welche aus unendlicher Anzahl Objekte bestehen, wie Sperrgut oder Metall. Objekte, welche sich nur durch ihr Material unterscheiden, nicht aber durch Form und Farbe, können kaum durch Image-Classification unterschieden werden.
Durch die zeitliche Limitierung der Arbeit konnte nur ein begrenzter Aufwand in die Entwicklung des Modells, sowie des Datasets gesteckt werden. Durch eine umfangreichere Datenerhebung im RH, könnte eine praxisnähere Datengrundlage geschaffen werden, auf welcher durch weitere Optimierung der Hyperparameter und eines besseren Fine-Tunings im Modell, durchaus noch bessere Resultate möglich wären.2021-01-01T00:00:00ZUnterstützung von Transactiv Memory Systems mittels der Verwendung von Tag Clouds
https://digitalcollection.zhaw.ch/handle/11475/21843
Title: Unterstützung von Transactiv Memory Systems mittels der Verwendung von Tag Clouds
Authors: Votapek, Manuel
Abstract: Der Wandel zur Wissensgesellschaft hat dazu geführt, dass Wissen zu einem Erfolgsfaktor für Unternehmen geworden ist. Die beiden Kernprozesse Wissensidentifikation und Wissensverteilung des Wissensmanagements, nehmen eine wesentliche Rolle in dem von Wegner konzipierten Transactive Memory System (TMS) ein, bei diesem steht das Meta- Wissen im Zentrum. Ein ausgeprägtes TMS, also ein ausgeprägtes Wissen der einzelnen Mitglieder über das Wissen der anderen, hat einen positiven Einfluss auf die Leistung von Teams. Durch das Wachstum und die Globalisierung von Organisationen ist der Aufbau von TMS in Teams schwieriger geworden, weshalb der Einsatz von Informationssystemen in den Fokus rückt.
In dieser Bachelorarbeit wurde ein Prototyp konzipiert und umgesetzt, der den Austausch der für TMS relevanten Meta-Informationen «who does what» und «who is interested in what» in Teams fördern soll. Dabei wurde die Tag Cloud als Visualisierungsmittel verwendet. Aufgrund der einfachen und zugleich ansprechenden Darstellung, haben Tag Clouds in den letzten Jahren massiv an Popularität gewonnen. Für die Konzipierung wurden mittels Literaturrecherche Beiträge zu Informationssystemen zur Unterstützung von TMS und der Tag Cloud zusammengetragen, diese wurden zur Identifikation und Formulierung von Anforderungen an den Prototyp verwendet. Am fertiggestellten Prototyp wurde dann untersucht, ob dieser sich für die Erfassung und Auswertung der zuvor genannten Meta-Informationen eignet. Weiter wurde untersucht, ob die Tag Cloud von Benutzern akzeptiert und als nützlich wahrgenommen wird. Dazu wurde nebst einer technischen auch eine experimentelle Validierung mit elf Probanden durchgeführt.
Die Evaluation ergab, dass die Anforderungen erfüllt wurden und die Erfassung, Darstellung und Auswertung der Meta-Informationen im Prototyp grundsätzlich möglich sind. Von den Probanden wurde die Tag Cloud für interpretier und auswertbar befunden, auch zeigten die Resultate, dass die Tag Cloud ein akzeptiertes Darstellungsmittel ist. Zehn der elf Personen konnten sich vorstellen, den Prototyp oder eine ähnliche Applikation in einem Team einzusetzen. Während spezifische Auswertungen schwierig sind, hat die Tag Cloud Vorteile, wenn Benutzer sich einen Überblick verschaffen oder Trends erkennen wollen.2020-01-01T00:00:00ZProjekt Obst vom Baum : Backend
https://digitalcollection.zhaw.ch/handle/11475/21842
Title: Projekt Obst vom Baum : Backend
Authors: Thür, Flavian
Abstract: Aufgrund der Klimaerwärmung wird Nachhaltigkeit in allen Lebensbereichen immer wichtiger. Lebensmittelverschwendung bringt eine CO2-Emmisson mit sich, welche in vielen Fällen nicht nötigt wäre. Die vorliegende Arbeit ist ein Teil vom Projekt «Obst vom Baum». Das Projekt selbst hat zum Ziel die Verschwendung von Obst in der Schweiz zu vermindern. Das Endprodukt des Projekts «Obst vom Baum» soll eine Webapplikation sein, über welche nicht geerntetes Obst angeboten und nachgefragt werden kann. Die vorliegende Arbeit baut auf Bachelorarbeiten auf, welche als erster Teil des Projektes bereits verfasst wurden.
Ziel der vorliegenden Arbeit ist, den bestehenden Programmcode aus den vorgängigen Bachelorarbeiten so zusammenzuführen, dass ein automatisiertes Backend für den produktiven Einsatz der Webapplikation zur Verfügung steht. Ausgehend von den Analysen der letztjährigen Arbeiten, wird dabei ein Fokus auf die Performance der zu implementierenden Funktionalitäten gelegt.
Neben der vorliegenden Arbeit wird zeitgleich das Frontend der Webapplikation implementiert. Dies hat Einfluss auf das gesamte Vorgehen. Somit wird bei der Erarbeitung von Lösungen, stark auf die Anforderungen des Frontends eingegangen. Initial wird der Programmcode der letztjährigen Arbeiten, sowie die Erkenntnisse analysiert. Dies ist die Grundlage für die weitere Erarbeitung von Programmcode. Die Anforderungen werden in Zusammenarbeit mit dem Dozenten und dem Studierenden der Bachelorarbeit «Frontend » erarbeitet. Weiter wird für die Umsetzung des Programmcodes Internetrecherche betrieben oder Tests durchgeführt.
Der Programmcode ist so implementiert, dass die gestellten Anforderungen erfüllt wurden. Verglichen zu den letztjährigen Arbeiten, wurden diverse Anpassungen an der Datenbankstruktur und den Funktionalitäten des Backends gemacht. Am Framework der vorgängigen Bachelorarbeit, von JavaSpringBoot mit Anbindung an eine MongoDatenbank, wird weiterhin festgehalten.
Als Fazit steht, dass der implementierte Programmcode soweit für den produktiven Betrieb bereit ist, die gewünschten Funktionalitäten umgesetzt wurden und die durchgeführten Tests erfolgreich waren. Weiter können Standard-Aufgaben, welche durch einen Administrator durchzuführen sind, einfach abgearbeitet werden.
Für künftige Implementationen stehen mehrere Möglichkeiten zur Verfügung. Ein Ausbau der Testautomatisierung ist erstrebenswert. So können zukünftige Implementationen, einfacher getestet und somit auch schneller implementiert werden. Eine weitere Funktionalität, welche Sinn macht, sobald die Nutzerzahlen steigen, ist die Integration der Administrationsaufgaben in das Frontend. Dies würde auch Anpassungen im Backend bedeuten, da entsprechende Requests noch fehlen. Da die Bauern von den Bauernverbänden validiert werden und diese Arbeit für die Qualität der Daten sehr wichtig ist, sollte man ebenfalls allfällige Anforderungen der Bauernverbände berücksichtigen. Ebenfalls gibt es noch diverse kleinere Anpassungsmöglichkeiten, wie Programmcode-Refactoring, UIVerbesserungen im E-Mail-Service und zusätzliche Tasks für die Datenbankbereinigung.2020-01-01T00:00:00Z«Klimaschutz konkret» goes digital
https://digitalcollection.zhaw.ch/handle/11475/21841
Title: «Klimaschutz konkret» goes digital
Authors: Thiemann, Mirjam
Abstract: Myblueplanet ist eine Schweizer Non-Profit-Organisation aus Winterthur. Mit dem Projekt «Klimaschutz konkret» möchte myblueplanet den Klimaschutz in das Bewusstsein aller Menschen rufen und zu konkreten Verhaltensänderungen bewegen. Für das Jahr 2020 wurde innerhalb dieses Projekts ein Papierkalender entworfen und an die Spender/ innen, Partnerunternehmen, Mitglieder und Mitarbeitenden von myblueplanet verteilt. Der Kalender zeigt jeden Monat den CO2-Ausstoss einer konkreten Alltagssituation auf und ermutigt die lesende Person, an der beschriebenen Lösung zur Minderung mitzuwirken.
Damit mehr Personen erreicht und zu konkreten Aktionen ermutigt werden können, soll der Kalender digitalisiert und innerhalb einer App abgebildet werden. Mithilfe der App sollen individuelle Anpassungen der konkreten Aktionen auf die Nutzenden möglich sein, sodass allfällige Hürden gesenkt und eine Klimabewegung zur CO2-Reduktion entstehen kann.
In dieser Bachelor-Thesis werden die konkreten Anforderungen an die App von myblueplanet untersucht. Hierbei geht es nicht um rein funktionale Anforderungen, sondern darum, herauszufinden, was die App zusätzlich erfüllen muss, damit die Nutzer mithilfe der Aktionen die Verhaltensweisen für eine Klimaschutzverbesserung anpassen. Der Nutzerkreis ist dabei aufgrund der verfügbaren Ressourcen auf die ZHAW-Studierenden eingeschränkt. In der Psychologie existiert die sogenannte ‹Theorie des geplanten Verhaltens›. Die Bachelorarbeit ermöglicht einen Einblick in die Komplexität dieser Theorie. Das Verhaltensmodell von Fogg basiert auf dieser ‹Theorie des geplanten Verhaltens› wurde aber auf das Individuum abgeleitet. Aus diesem Grund wird die Theorie von Fogg als Grundlage für die qualitativen Interviews verwendet.
Neben der Analyse der Theorien und des Inputs von myblueplanet wurden drei qualitative Experteninterviews durchgeführt. Anhand der Ergebnisse wurden Mockups skizziert und festgehalten. Mit dreizehn ZHAW-Studierenden wurden im Anschluss erneut qualitative Leitfadeninterviews durchgeführt, in welchen die Studierenden mit den erstellten Mockups konfrontiert wurden, um mögliche weitere Anforderungen und Herausforderungen aufzudecken.
Innerhalb dieser Thesis wurden ein Anforderungskatalog und verschiedene Mockups erarbeitet. Zudem konnte das Verhaltensmodell von Fogg praxisnah mit den Anforderungen innerhalb der App verknüpft werden. Die am Anfang der Arbeit aufgestellten Arbeitshypothesen, dass eine Anpassung der Aktionen auf den Standort des Nutzers oder die aktive Teilnahme von Freundinnen und Freunden des Nutzers die Teilnahme an den Aktionen erhöht, konnten bewiesen werden. Eine aktivere Teilnahme aufgrund der Gamification, des Herunterbrechens der zwölf Aktionen von der bestehenden Monatsbasis auf Wochenbasis und der Einfachheit des Zugangs via Web-App konnten widerlegt werden.
Die Empfehlung für myblueplanet ist die Erstellung einer Web-App. Nach der Einführung sollten stetige Feedbacks der Nutzenden eingeholt werden, damit die App verbessert werden kann. Etwa sechs Monate nach der Einführung sollten die Aktionen in eine native App eingebaut werden, die in den App-Stores zur Verfügung gestellt wird.2020-01-01T00:00:00ZSynergien von Lean Six Sigma und Robotic Process Automation bei Finanzinstituten
https://digitalcollection.zhaw.ch/handle/11475/21840
Title: Synergien von Lean Six Sigma und Robotic Process Automation bei Finanzinstituten
Authors: Schnellmann, Marianne
Abstract: Der stetige Wandel und die damit verbundenen Anforderungen sind Treiber der Weiterentwicklung von Unternehmen. Um am Markt bestehen zu können und den zunehmenden Kundenansprüchen gerecht zu werden, benötigt es an kontinuierlicher Verbesserung der Geschäftsprozesse und eingesetzten Technologien. Die Notwendigkeit von effizienten Prozessen bedingt an Optimierung und Automatisierung. Finanzinstitute und Beratungsunternehmen nutzen dafür die beiden Methoden Lean Six Sigma und Robotic Process Automation. Zur vollen Ausschöpfung des Optimierungspotenzials und der daraus resultierenden Effizienzsteigerung, ist man im Rahmen dieser Bachelorarbeit auf die Synergien von Lean Six Sigma und Robotic Process Automation näher eingegangen.
Das Ziel der vorliegenden Bachelorarbeit ist die Bestimmung von Einflussfaktoren bei der Identifizierung von Prozessen mit Optimierungs- und Automatisierungspotenzial. Zudem werden die Mehrwehrte sowie Herausforderungen aufgezeigt, welche durch die Kombination von Lean Six Sigma und Robotic Process Automation entstehen. Um die Optimierung und Automatisierung zukünftig weiterhin voran zu treiben, werden zum einen die Grenzen der Methoden aufgezeigt und zum anderen potenzielle Technologien vorgestellt.
Zur Beantwortung der Forschungsfragen wurden Experteninterviews mit Finanzinstituten und Beratungsunternehmen durchgeführt. Zusätzlich wurden die Kernaussagen mittels einer Online- Umfrage, den Interviewpartnern nochmals zur Gewichtung vorgelegt. Die zweite Online-Umfrage diente zur Repräsentation der Einschätzung über eine mögliche Kombination, von global tätigen Arbeitnehmern. Abschliessend wurde eine reale und selbst erarbeitete Fallstudie aus einem Schweizer Finanzinstitut beigezogen.
Die Erkenntnisse zeigen, dass basierend auf dem Verständnis der Führungsmitglieder über die behandelnde Thematik, eine positive Auswirkung auf die Strategie und Zielsetzung entsteht. Die Projektförderung durch das Management sowie die klare Kommunikation und der daraus entstehenden Transparenz, fördert die Identifikation von Prozessen. Dem gegenüber entstehen Herausforderungen wie die mangelnde Verantwortungsübernahme sowie eine unklare Kommunikation, fehlende Projektunterstützung und ungenügender Wissensstand. Die Kombination ermöglicht eine ganzheitliche Prozessanalyse und Identifizierung von Problemen und Verbesserungsmöglichkeiten. Durch Verschlankung und qualitative Steigerung des Prozesses, kann das Automatisierungspotenzial maximiert werden. Ebenfalls abhängig vom Verständnis der Führungsmitglieder, können die Erwartungen von der Realität abweichen. Zudem muss das umfangreichere Fachwissen der Projektmitarbeiter sichergestellt werden. Die einflussreichsten Faktoren sind die Zeit-, Budget- und Human Resource Vorgaben. Grenzen der Methoden zeigen sich bei der Erwartungshaltung, technischen Funktionsfähigkeit, der begrenzten Ausschöpfung der Optimierungen und bei der Komplexität der Methodologie. Zur weiteren Optimierung und Automatisierung wird zukünftig die künstliche Intelligenz eine zentrale Rolle spielen. Doch müssen vorab die Voraussetzungen für eine vereinfachte Nutzung erarbeitet werden.
Aus dieser Bachelorarbeit geht hervor, dass das Verständnis der Führungskräfte über die Materie, für die Durchführung eines Projektes erfolgsabhängig ist. Zudem sollen die Synergien aus der Kombination von Lean Six Sigma und Robotic Process Automation für eine stabile Basis und nachhaltige Lösung genutzt werden. Somit kann in einem Folgeschritt mit den erweiterten Technologien darauf aufgebaut werden.2020-01-01T00:00:00ZA comparison study of digital business models between China and Switzerland : the key factors of the digital business models with focus on the retail industry
https://digitalcollection.zhaw.ch/handle/11475/21839
Title: A comparison study of digital business models between China and Switzerland : the key factors of the digital business models with focus on the retail industry
Authors: Lin, Shengya
Abstract: Digitisation involves changes in different areas of society and defines the new direction of businesses. The most visible field of which is the retail industry. Moreover, technology-oriented business models become a modern and preferable way among consumers. Notably, China’s high GDP growth is highly related to this development because digital retail already penetrated daily life and formed a business eco-system. In contrast, the effect of those business models has not yet overtaken the Swiss economy, since the traditional market is still dominant regarding its profound economy structure. However, new emerging technologies may have the chance to lead another revolution and hence bring the large potential of digital business opportunity globally.
This Bachelor thesis aims to compare the business environment of digital business models in the retail industry between China and Switzerland. It discusses different macroenvironment perspectives to scrutinise the key factors.
This thesis approaches the research question with the qualitative method. The empirical part consists of a comprehensive literature review and interviews with experienced cross-country experts in China and Switzerland. Further-more, the professional literature of both countries primarily contributes to the development of the theoretical background. In addition, interviews with Mr. He (CEO of World Internet of Thing Conference), Mr. Berner (service manager from Huawei) and Dr. Wu (graduated from UZH) accomplished this study.
The empirical studies reveal the different approaches of digital transformation in the retail industry in China and Switzerland. China presents its reliability of economic development on technological development whereas Switzerland does on its legal framework. Despite, the comparison and interviews illustrate the similarities in their macroenvironment of implementing digitalisation. The acceptance of technology in the two countries influenced the transformation process in their respective retail industries. Similarly, cybersecurity has been the main concern to prevent rapid digitalisation. Exceptionally, there are numbers of organisations that considered the transformation as a great option to resolve the security issue. Furthermore, new digital retail businesses depend on direct and decentralised communications between physical shops and online distributions in order to remain sustainable. Collectively, the key factors for accelerating the digital business models in the retail industry are the acceptance of technology, security and online-offline connectivity.
Due to the time and scope limitation, this thesis focuses on the macroenvironment of the retail industry regarding digital business models. Therefore, this study provides insightful instructions to future digital business models comparative studies between China and Switzerland such as microenvironment, customer perspectives and the impact of the economic models towards competitive advantages. Moreover, this study also serves as an informative foundation regarding the collaboration and M&A activities on technologies between both countries.2020-01-01T00:00:00ZAnalysing student comments on RateMyProfessors.com using NLP techniques
https://digitalcollection.zhaw.ch/handle/11475/21754
Title: Analysing student comments on RateMyProfessors.com using NLP techniques
Authors: Gioli, Giacomo
Abstract: The assessment of teaching methods and faculty performance is an important step enabling educational institutions to continuously improve their teaching methods and study offers. Typically, schools conduct internal surveys to assess their performance. In most cases, however, the results of these surveys are not disclosed to the public. Therefore, several online platforms have emerged, which allow students to evaluate their teachers publicly. The most popular online evaluation platform, RateMyProfessors.com, currently features over 15 million evaluations covering more than 1.8 million teachers. So, how can schools use this large amount of publicly available data to generate useful insights?
In order to answer this research question, a dataset containing 1,637,435 evaluations for 134,375 teachers from 605 schools selected with a random approach using web scraping techniques was built. Intermediate questions were defined in order to answer the research question, such as whether it is possible to use computational techniques to distinguish good from bad teachers based on the language used by the students. The individual questions were elaborated and answered using theoretical knowledge and statistical models.
Using natural language processing and machine learning techniques it was demonstrated that it is possible to distinguish positive evaluations from negative evaluations, easy subjects from difficult subjects as well as good teachers from bad teachers with accuracies of over 90%. Furthermore, thanks to the correlations discovered between the quality of teaching as perceived by students, the level of difficulty as perceived by students and the helpfulness of the teacher, it was possible to predict the quality of teaching and the level of difficulty based on the students language. Finally, it was demonstrated that, using statistical models, it is possible to identify topics concerning the faculty performance and teaching methods in evaluations of online courses.
Although random approaches to data collection have been chosen to allow the results to be generalized, this cannot be considered universally valid, as the platform from which the data was extracted offers the possibility to evaluate only institutes in the United States, Canada and the United Kingdom. It is therefore necessary to consider possible differences in the way teachers in other cultures are evaluated. In conclusion, natural language processing and machine learning techniques can be applied for the analysis of online evaluations. Schools can therefore use these techniques to generate useful information about their teachers and their teachers’ performance based on online evaluations. This approach, however, should not be looked at by schools as an alternative to the typical evaluation activity, but as an extension, allowing them to analyze aspects not normally considered in typical school evaluations.2020-01-01T00:00:00ZHelper-Bot für E-Learning
https://digitalcollection.zhaw.ch/handle/11475/19128
Title: Helper-Bot für E-Learning
Authors: Michot, Janick
Abstract: Wo früher Programmierkurse nur in das Curricula von technischen Studiengängen gehörten, ist heutzutage vermehrt auch bei Studiengängen ausserhalb der Informatik das Erlernen einer Programmiersprache gefordert. Auslöser dafür ist das zunehmende wirtschaftliche und gesellschaftliche Interesse an einer grundlegenden Programmierausbildung. Auch das Wirtschaftsdepartement der ZHAW (SML) hat dieses Interesse erkannt und bietet im Herbstsemester 2019 nicht-informatischen Studiengängen einen Programmier-Einführungskurs als Wahlpflichtmodul an. Nun verlangt eine solche Kurserweiterung zusätzliche Ressourcen für die Betreuung und Bewertung von Programmiernovizen bei der Lösung von Programmieraufgaben. Um gleichzeitig den Einsatz menschlicher Ressourcen zu reduzieren und um die Qualität eines Kurses zu verbessern, hielten in der Vergangenheit lernunterstützende Systeme Einzug in die akademische Programmierlehre.
Im Rahmen dieser Thesis wird erstmals ein solche Anwendung auf Basis der Chatbot-Technologe entworfen und erstellt. Mit einer prototypischen Umsetzung soll geprüft werden, ob sich die Idee eines Helper-Bots realisieren lässt, inwiefern qualitative Verbesserungen des Kurses hinsichtlich einer Reduktion der Antwortzeit möglich sind und ob eine solche Anwendung dabei hilft, menschliche Ressourcen in der Programmierlehre zu reduzieren.
Das Artefakt dieser Arbeit basiert auf der Chatbot-Plattform Dialogflow, welche aus den Benutzereingaben Absichten und Entitäten herausliest und diese an den Helper-Bot weitergibt. Zur statischen und dynamischen Code-Analyse wurde eine separate API erstellt, wo studentische Programme gesichert ausgeführt werden. Die Konfiguration des Helper-Bots sowie die Formulierung von Hilfestellungen erfolgt wiederum über einen passwort-geschützten Admin-Bereich. Durch das Zusammenspiel dieser Komponenten wird es einem Studenten ermöglicht, unmittelbar und ohne Miteinbezug eines Dozenten Hilfe zur Lösung einer Programmieraufgabe zu erhalten.
Mit der Umsetzung des Helper-Bots wurde gezeigt, dass sich eine Chatbot-Anwendung zur Lernunterstützung aus technischer Sicht umsetzten lässt. Wenngleich der Helper-Bot eine qualitative Verbesserung hinsichtlich einer verkürzten Latenz von Hilfestellung ermöglich, kann der didaktische Nutzen erst mit dem Einsatz in der akademischen Programmierlehre bemessen werden. Gleiches gilt für die partielle Ersetzung von menschlichen Ressourcen. Schlussendlich hängt der Erfolg des Helper-Bots von der Akzeptanz der Studenten ab.2019-01-01T00:00:00ZEinsatz von immersiver Virtual Reality für die heilpädagogische Förderung von Kindern mit besonderem Bildungsbedarf : Konzeption einer Lerneinheit
https://digitalcollection.zhaw.ch/handle/11475/19127
Title: Einsatz von immersiver Virtual Reality für die heilpädagogische Förderung von Kindern mit besonderem Bildungsbedarf : Konzeption einer Lerneinheit
Authors: Locher, Timothy
Abstract: In der Sonder- und Heilpädagogik werden vermehrt Informatikmittel eingesetzt, um wichtige Kompetenzen zu entwickeln und damit die Partizipation im Alltag und Arbeitsleben sicherzustellen. Das Potenzial von immersiver Virtual Reality wird jedoch noch nicht ausgeschöpft. Heilpädagogen sehen Möglichkeiten, Virtual Reality in der Einzelförderung einzusetzen, um beispielsweise Alltagssituationen zu simulieren oder abstrakte
Lerninhalte anschaulich beziehungsweise greifbar zu machen. Auch auf die Effekte auf die Lernmotivation scheinen von hoher Relevanz um schnellere Durchbrüche zu ermöglichen.
Diese Bachelor-Thesis zeigt, wie mithilfe von heilpädagogischen Fachkräften eine Lerneinheit konzipiert werden kann, welche sowohl die Möglichkeiten von immersiver Virtual Reality ausschöpft als auch den didaktischen/heilpädagogischen Prinzipien gerecht wird.
Daraus resultierend ist ein Konzept für ein VR-Geometrielabor entstanden, welches sich im Lehrplan 21 an den Mathematischen Kompetenzbereich «Form & Raum» bindet und auf das entsprechende Lehrmittel abgestimmt ist. Für das modular aufgebaute VR-Geometrielabor sind Konzepte inklusive deren Storyboards für 4 Lerneinheiten entstanden.
Die einzelnen Lerneinheiten wurden mit schulischen Heilpädagoginnen evaluiert, um den didaktischen Prinzipien gerecht zu werden.2019-01-01T00:00:00ZDie digitale Transformation der ärztlichen Konsultation : eine systematische Literaturrecherche
https://digitalcollection.zhaw.ch/handle/11475/19126
Title: Die digitale Transformation der ärztlichen Konsultation : eine systematische Literaturrecherche
Authors: Gollmer, Lukas
Abstract: Effektive Arzt-Patienten-Kommunikation verbessert die Therapietreue und damit den Behandlungserfolg. Zeitdruck, fehlendes Kommunikationstraining und flüchtige Beziehungen zwischen Arzt und Patient erschweren jedoch eine effektive Kommunikation. ICT-Lösungen haben Potenzial, die ärztliche Konsultation zu unterstützen. Eine Verbesserung der Arzt-Patienten-Kommunikation ist, im Kontext des teuren Schweizer Gesundheitssystems, auch von volkswirtschaftlicher Relevanz.
Die vorliegende Bachelorarbeit untersucht bereits existierende ICT-Lösungen zur Unterstützung der ärztlichen Konsultation beziehungsweise Arzt-Patienten-Kommunikation. Im weiteren Sinne wird auch aufgezeigt, wie diese ICT-Lösungen die ärztliche Konsultation transformieren.
Die Analyse der Literatur identifiziert drei Kategorien von ICT-Lösungen zur Unterstützung der ärztlichen Konsultation: Primärsysteme, Entscheidungsunterstützungssysteme und mobile Systeme. Primärsysteme unterstützen den Arzt während der Konsultation bei Dokumentationsaufgaben und der Bereitstellung von Informationen. Entscheidungsunterstützungssysteme helfen bei der Diagnose sowie der Prüfung von Gesundheitsrisiken. Weiter unterstützen sie die Patientenbildung ausserhalb der Konsultation, ähnlich den mobilen Systemen. Mobile Systeme vereinfachen zusätzlich die Kommunikation mit dem Arzt und ermöglichen die Beobachtung von vom Patienten gesammelten Gesundheitsdaten ausserhalb der Konsultation.2019-01-01T00:00:00ZEinsatz von IT-GRC Funktionen in führenden ITSM Lösungen - Möglichkeiten und Grenzen
https://digitalcollection.zhaw.ch/handle/11475/19089
Title: Einsatz von IT-GRC Funktionen in führenden ITSM Lösungen - Möglichkeiten und Grenzen
Authors: Murtaj, Egzon
Abstract: Immer mehr IT-Organisationen konkurrieren sich um IT-Services, weshalb sich der Wettbewerb um die IT erhärtet und die Notwendigkeit für ITSM steigt. Gleichzeitig steigt auch die Komplexität von IT-Organisationen mit der sich erhöhenden Anforderung im Bereich der Transparenz, der Messbarkeit, der Kontrolle und der Nachvollziehbarkeit, weshalb IT-GRC an Bedeutung gewinnt. Eine Möglichkeit, Abhilfe gegen die steigenden Anforderungen zu schaffen, liegt im Einsatz von IT-GRC Funktionen in ITSM Lösungen. Es lässt sich die zentrale Forschungsfrage ableiten, welche Möglichkeiten und Grenzen zum Einsatz von IT-GRC Funktionen in ITSM Lösungen bestehen.
ITSM kann als Werkzeug für IT-GRC dienen, indem die Aufgaben eines Risk Managements und Compliance Managements in ITSM Lösungen funktional abgebildet werden. Aus der Marktanalyse von ITSM Lösungen resultieren Cherwell Software, Ivanti und ServiceNow als führende ITSM Lösungsanbieter, welche anhand eines Bewertungskatalogs von insgesamt 15 Kriterien evaluiert werden. Die Evaluierung zeigt, dass sowohl in der Qualität als auch in der Quantität die ITSM Lösung von ServiceNow im Einsatz von IT-GRC Funktionen führt. Die ITSM Lösung von Cherwell Software folgt der ITSM Lösung von ServiceNow dicht, wobei die ITSM Lösung von Ivanti noch Verbesserungspotenziale für den Einsatz von IT-GRC Funktionen birgt.
Auf der einen Seite bestehen die Möglichkeiten zum Einsatz von IT-GRC Funktionen in führenden ITSM Lösungen sowohl in der Qualitätsverbesserung als auch in der Senkung der Dauer und der Aufwandsreduktion von IT-GRC relevanten Prozessen. Auf der anderen Seite liegen die Grenzen in den initial hohen Kosten, der rasch zunehmenden Komplexität im Detaillierungsgrad und den automatisierten Messungen in Prozessen, die in der ITSM Lösungen nicht abgebildet werden können. Da sich ITSM Lösungen immer mehr zu ESM Lösungen wandeln, besteht jedoch Potenzial für die Ausweitung der abgebildeten Prozesse und somit für den Einsatz von IT-GRC Funktionen. Als zentrale Handlungsempfehlung definiert sich ein Abgleich der Möglichkeiten und Grenzen, woraus eine Gewichtung für die Nutzwertanalyse resultieren soll.2019-01-01T00:00:00ZAnwendung der Blockchain-Technologie im Vertragsmanagement
https://digitalcollection.zhaw.ch/handle/11475/19088
Title: Anwendung der Blockchain-Technologie im Vertragsmanagement
Authors: Weiss, Manuel
Abstract: Verträge bilden die Grundlage aller Geschäftsvorfälle und deren Verwaltung stellt eine alltägliche administrative Arbeit für Unternehmen dar. Ein Vertrag wird abgeschlossen, um die gegenseitige Willenserklärung der Vertragsparteien rechtskräftig festzuhalten. Infolgedessen existiert bei allen Parteien das Interesse, eine rechtlich bindende Vertragsversion in eigenem Besitz aufzubewahren. Aktuell findet die Verwahrung mittels physischen oder digitalen Vertragskopien in einer Ablage oder Datenbank, über eine zentralisierte geteilte Plattform oder durch die Inanspruchnahme eines Drittservices statt. Diese Lösungen haben den Nachteil, dass entweder mehrere gültige Vertragsversionen bestehen oder darauf vertraut werden muss, dass die geteilte Plattform von der innehabenden Partei nicht kompromittiert wird. Nachteile beim Drittservice entstehen durch hohe Kosten und eine zeitaufwendige Vertragsentstehung.
Diese Arbeit umfasst die Konzipierung, Entwicklung und kritische Würdigung eines Prototyps im Rückvergütungs- und Darlehensvertragsmanagement einer Schweizer Brauerei. Mit der Realisation des Prototyps wird untersucht, wie durch die Anwendung der Blockchain-Technologie eine integre Aufbewahrung einer einzig gültigen Vertragsversion umgesetzt werden kann. Darüber hinaus analysiert die Arbeit Optimierungen im Vertragsentstehungsprozess in Bezug auf Effizienz, Transparenz, Rückverfolgbarkeit und Automation.2019-01-01T00:00:00ZEinflussfaktoren für erfolgreiche Datenmigrationen im Rahmen von IT-Projekten.
https://digitalcollection.zhaw.ch/handle/11475/19087
Title: Einflussfaktoren für erfolgreiche Datenmigrationen im Rahmen von IT-Projekten.
Authors: Avseren, Melek
Abstract: Mit dem Unternehmenswachstum altern auch die Systeme, welche nach einer bestimmten Anzahl an Jahren das Ende ihrer Lebensphase erreichen und nicht mehr verwaltet werden können. Dieser Grund ist einer von vielen, weshalb Systeme in Unternehmen abgelöst und durch neue ersetzt werden. In den meisten Fällen werden Daten aus dem Altsystem in das neue System übernommen. Es findet sich zunehmend Literatur zum Thema Datenqualität in Zusammenhang mit Datenqualitätsmanagement oder Data-Warehouse-Systemen. Deshalb untersucht die vorliegende Bachelorarbeit den Einfluss hoher Datenqualität und effektive Migrationsplanungen für den Erfolg der IT-Projekte.
Obwohl die Datenmigration ein bekanntes Verfahren ist, scheitert die Mehrheit aller Datenmigrationsprojekte. Es wird daher davon ausgegangen, dass die Ursache des Problems auf die Unterschätzung der Faktoren Datenqualität beruht und die Migrationsplanung unzureichend definiert wird. Daher ermittelt diese Bachelorarbeit die Antwort auf die Frage, welchen Einfluss eine hohe Datenqualität und effektive Migrationsplanung auf den IT-Projekterfolg hat.2019-01-01T00:00:00ZEinsatz von immersiver Virtual Reality für die heilpädagogische Förderung von Kindern und Jugendlichen mit besonderem Bildungsbedarf : Konzeption einer Lerneinheit mit einer heilpädagogischen Schule
https://digitalcollection.zhaw.ch/handle/11475/19086
Title: Einsatz von immersiver Virtual Reality für die heilpädagogische Förderung von Kindern und Jugendlichen mit besonderem Bildungsbedarf : Konzeption einer Lerneinheit mit einer heilpädagogischen Schule
Authors: Oppedisano, Michele
Abstract: Die Digitalisierung hat einen zunehmenden Einfluss auf unser Leben. In der Schule müssen die Kinder lernen, wie damit umgegangen werden kann. Mit der Einführung des Lehrplans 21 und dem neuen Fach Medien und Informatik ist für Schweizer Schulen Digitalisierung zur Pflicht geworden. IPads, Computer und das Internet werden schon länger in der Schule gebraucht. Noch in den Kinderschuhen steckt der Einsatz von Virtual Reality (VR). Da VR Lerneinheiten im Einzelsetting eingesetzt werden, bieten sie sich für die Förderung von Kindern und Jugendlichen mit besonderem Förderbedarf an. Im Rahmen dieser Arbeit wurde erarbeitet, welche Lerninhalte sich speziell für Schülerinnen und Schüler mit zusätzlichem Förderbedarf eignen und was es bei der Aufbereitung dieser Lerninhalte für immersive VR zu berücksichtigen gilt. Dabei wurde stets bedacht, dass die Umsetzung der Lerneinheit mit VR einen Mehrwert stiftet und nicht durch andere Medien ersetzt werden kann. Im Mittelpunkt stand die Gestaltung der Einheit nach heilpädagogischen Prinzipien.
Während dem Schreiben dieser Arbeit wurde bewusst, dass der Einsatz von VR in den Schulen grosses Potenzial birgt. Vor allem für Schülerinnen und Schüler mit besonderem Förderbedarf kann während einer Lerneinheit auf spezielle Bedürfnisse eingegangen werden. Die Kollaboration mit den Fachkräften im Rahmen eines iterativen Gestaltungsprozesses bildet bei der Konzeption die kritische Grundlage. Zusätzlich muss der Kontext der Lernenden verstanden werden und das Lernverhalten spezieller Zielgruppen bekannt sein.
Der nächste Schritt auf der Grundlage dieser Arbeit ist die Umsetzung der Konzeption. Anhand des Storyboards und der erarbeiteten Liste heilpädagogischer Anforderungen kann die Lerneinheit mit immersiver VR implementiert werden. Wenn eine implementierte Lerneinheit vorliegt, ist es möglich den Lernerfolg zu bewerten, um herauszufinden, ob VR Lerneinheiten einen Mehrwert erzielen können. Mit diesen Erkenntnissen könnten noch weitere Simulationen entwickelt werden, die für Kindern und Jugendlichen mit besonderem Förderbedarf einen Mehrwert stiften und sie auf das spätere Leben vorbereiten.2019-01-01T00:00:00ZGeeignete "Kommunikations- und Kollaborations- Software" für interdisziplinäre und strategische Arbeitsgruppen in einem industriellen Verband
https://digitalcollection.zhaw.ch/handle/11475/19085
Title: Geeignete "Kommunikations- und Kollaborations- Software" für interdisziplinäre und strategische Arbeitsgruppen in einem industriellen Verband
Authors: Zeller, Sebastian
Abstract: Die Digitalisierung verändert die Rahmenbedingungen für Unternehmen. Verkürzte Innovations- und Produktlebenszyklen, zunehmender Wettbewerb sowie sich verändernde Geschäftsmodelle, Wertschöpfungsketten wie auch Kundenbedürfnisse sind Folgen der Digitalisierung. Dadurch gewinnt die Kollaboration stetig an Relevanz, da sie die Zusammenarbeit unabhängig von der geografischen Lage und der Zeitzone ermöglicht.
Gesucht wird eine Software für einen industriellen Verband, welche die Kollaboration innerhalb des Verbands erhöht und so zu seinem Erfolg beiträgt. Ebenfalls wird untersucht, ob der industrielle Verband aufgrund seiner heterogenen Organisationsform spezielle Anforderungen hat, welche Vorteile Kollaborations-Software mit sich bringt und welche Teilmärkte im Kollaborationsmarkt enthalten sind. Weiter wird geklärt, welches
Vorgehen sich für die Selektion von Standardsoftware eignet.
Schlussfolgernd resultiert Zoho Workplace unter 36 Software-Anbietern als ideale Software für den industriellen Verband; dies hat jedoch keine allgemeine Gültigkeit, da das Resultat von spezifischen Anforderungen abhängig ist. Die ermittelte Vorgehensweise zur Selektion von Software hat allgemeine Gültigkeit und erzeugt einen Mehrwert für die Softwareselektion. Ebenfalls sind die ermittelten Teilmärkte des Kollaborationsmarktes von allgemeiner Gültigkeit.2019-01-01T00:00:00ZEinsatz von VR bei Jugendlichen mit besonderem Bildungsbedarf
https://digitalcollection.zhaw.ch/handle/11475/19084
Title: Einsatz von VR bei Jugendlichen mit besonderem Bildungsbedarf
Authors: Castro Taborda, Henrique de
Abstract: Aufgrund des technischen Fortschritts werden heute bereits in vielen Bereichen, wie zum Beispiel in der Industriebranche, vermehrt immersive Virtual-Reality(VR)-Anwendungen eingesetzt. Der heutige Stand der Technik ermöglicht dabei mit einem geringen Aufwand die Erstellung von hochwertigen VR-Anwendungen. Diese Möglichkeit soll genutzt werden im Rahmen einer Bachelorarbeit eine VR-Anwendung für Jugendliche mit besonderem Bildungsbedarf zu erstellen. Der Fokus der Anwendung liegt zum einen auf der Simulierung von alltäglichen Stresssituationen der Jugendlichen und zum anderen an der Benutzertauglichkeit der Anwendung für die entsprechende Zielgruppe.
Dabei befasst sich die Arbeit mit der Frage, was für Medieninhalte in einer VR-Anwendung eingesetzt werden können, um alltägliche Stresssituation der Jugendliche erfolgreich zu simulieren. Des Weiteren soll dabei untersucht werden, ob solch eine Anwendung auf einer VR-Brille in einem Therapiesetting überhaupt eingesetzt werden kann, ohne dabei ablenkend zu wirken.
Der im Rahmen dieser Arbeit erstellte Prototyp einer VR-Anwendung konnte von den Jugendlichen einer heilpädagogischen Schule erfolgreich erprobt werden. Bei den Usability-Tests mit den Jugendlichen konnten dabei erste Erkenntnisse gewonnen werden, in Bezug auf die erreichte Immersion und die Benutzertauglichkeit der Anwendung.
Aus diversen Erkenntnissen der Usability-Tests mit den Jugendlichen mit besonderem Bildungsbedarf ging hervor, dass die eingesetzten Medieninhalte bei den Jugendlichen eine immersive Erfahrung ausgelöst haben. Es wurde deutlich, dass die Gestaltung der Anwendung in Bezug auf die Bedienbarkeit für die Jugendlichen insgesamt verständlich war. In Bezug auf die Weitere Bearbeitung der Anwendung ist festzuhalten, dass der Einsatz von einem Sprecher, der die Jugendlichen durch die Anwendung führt von signifikanter Bedeutung ist. Des Weiteren ist anzumerken, dass die Positionierung der anzuwählenden Symbole in der VR-Anwendung so erfolgt, dass die Nutzer zu Drehungen und Kopfbewegungen ermutigt werden.2019-01-01T00:00:00ZPlattform «Obst vom Baum»: Ausarbeitung eines Geschäftsmodells, Implementierung und Lancierung einer ersten Version
https://digitalcollection.zhaw.ch/handle/11475/19083
Title: Plattform «Obst vom Baum»: Ausarbeitung eines Geschäftsmodells, Implementierung und Lancierung einer ersten Version
Authors: Spirig, Janick
Abstract: Aufgrund der wachsenden Weltbevölkerung und der Übernutzung der Ressourcen wird die Notwendigkeit einer nachhaltigen Entwicklung immer grösser. Ein wichtiger Ansatzpunkt ist die effizientere Nutzung der bestehenden Ressourcen, sei es materiell oder finanziell. So bestehen auch in der Schweizer Obstproduktion und -konsumation verschiedene Ineffizienzen. Bei Privatpersonen, die im Besitz von eigenen Obstbäumen sind, übersteigt die Erntemenge den eigenen Konsumbedarf oftmals, überschüssiges Obst wird kompostiert statt konsumiert. Obstbauern, die das produzierte Obst über den indirekten Vertriebsweg verkaufen, erhalten tiefere Produzentenpreise als beim Verkauf von Obst über den direkten Vertriebsweg. Dies ist darauf zurückzuführen, dass beim indirekten Vertriebsweg mehrere Intermediäre in den Absatzweg involviert sind. Aufgrund der beschränkten Reichweite bestehender direkter Vertriebswege können jedoch viele Obstbauern das höhere Ertragspotenzial beim direkten Vertrieb nicht genügend ausschöpfen.
Im Rahmen der vorliegenden Bachelorarbeit wird deshalb die Fragestellung untersucht, inwiefern eine digitale Plattform dazu beitragen kann, die anfallenden Lebensmittelverluste bei Privatpersonen im Besitz von Obstbäumen zu reduzieren und die Obstbauern bei der Ausschöpfung des Ertragspotential des direkten Vertriebsweg zu unterstützen.
Das entwickelte Geschäftsmodell der digitalen Plattform «Obst vom Baum» ermöglicht den Handel von Obst zwischen Privatpersonen und Obstbauern als Anbietende und Privatpersonen als Nachfragende. Durch den Handel tragen die Parteien integrativ zur nachhaltigen Entwicklung in der ökologischen, ökonomischen und sozialen Dimension bei, indem u.a. Lebensmittelverluste verhindert werden und die regionale Landwirtschaft von finanziellen Mehrerträgen profitieren kann. Um den Handel von Obst zu ermöglichen, müssen Nachfragende und Anbietende von Obst auf der Plattform zusammengeführt werden. Hierfür ist das Softwaresystem «Matching-Server» verantwortlich. Der Matching-Server nimmt primär die Aufgabe wahr, verfügbare Ernteangebote zu identifizieren, welche mit den Suchpräferenzen des Nachfragenden übereinstimmen und deren Bezug zur nachhaltigen Entwicklung beitragen würde.2019-01-01T00:00:00ZChatbots/conversational interfaces in the context of the stereotype content model (SCM)
https://digitalcollection.zhaw.ch/handle/11475/12450
Title: Chatbots/conversational interfaces in the context of the stereotype content model (SCM)
Authors: Schär, Annemarie
Abstract: Virtual assistants in the form of chatbots are taking over today’s technology industry. Companies have increasingly started integrating conversational agents into their customer support platforms and recorded millions of interactions. However, this technology has a high failure rate when it comes to correctly processing inquires. How can firms enhance a client’s experience with their chatbot, aside from improving the technology that powers these bots?
The stereotype content model (SCM) theory postulates that people judge each other based on two dimensions: Warmth and competence. A person seen as highly warm and competent is admired and these two traits have a positive effect on trust. In practice, Casciaro and Sousa-Lobo developed archetypes based on the likability and competence dimensions. The “lovable star” is likeable and competent and thus great in demand. The “incompetent jerk” on the other hand lacks expertise and is seen as cold, therefore vastly avoided.2018-01-01T00:00:00ZPotentiale und Herausforderungen der Anwendung von Big Data in der Versicherungsbranche
https://digitalcollection.zhaw.ch/handle/11475/12449
Title: Potentiale und Herausforderungen der Anwendung von Big Data in der Versicherungsbranche
Authors: Baumann, Sven
Abstract: Das heutige Zeitalter wird durch eine digitale Revolution und sich stetig verändernde Technologien dominiert. Eine von vielen an Bedeutung zunehmenden Technologien nennt sich Big Data. Big Data ermöglicht die Analyse von extrem grossen Datenmengen, um so zusammenhängende Muster, Trends und Verbindungen in Bezug auf die Verhaltensweisen und die Interaktionen zwischen Kunden und Unternehmen zu erkennen (Hackett, 2016, S. 5). Die Nutzung von Big Data wird in der wirtschaftlichen Diskussion vielfach angepriesen als der Königsweg zu mehr Erfolg in der Realisierung von Zusatzgeschäften mit bestehenden Kunden. Mitunter sind auch Versicherungsunternehmen gezwungen, sich der digitalen Revolution zu stellen und sich mit der Anwendung von Big Data auseinanderzusetzen. Versicherungsgesellschaften versuchen daher anhand von Big Data Mehrwerte für die Kundenbeziehung zu schöpfen und gleichzeitig den daraus resultierenden Herausforderungen gerecht zu werden.
Das Ziel der vorliegenden Bachelorarbeit ist es, zu bestimmen, welche Mehrwerte Versicherungsunternehmen mit der Anwendung von Big Data in Bezug auf die Kundenbindung schaffen können und welchen Herausforderungen sie dabei gerecht werden müssen. Dazu werden zwei Forschungsfragen gestellt: 1. Welchen Mehrwert bringt Big Data für die Kundenbindung bei Versicherungsunternehmen? 2. Welchen Herausforderungen müssen Versicherungsunternehmen mit der Anwendung von Big Data gerecht werden, um den anvisierten Mehrwert zu schöpfen?2018-01-01T00:00:00ZBlockchain – Potentiale einer disruptiven Technologie im Gesundheitswesen
https://digitalcollection.zhaw.ch/handle/11475/12448
Title: Blockchain – Potentiale einer disruptiven Technologie im Gesundheitswesen
Authors: Bächli, Andreas
Abstract: Die Blockchain-Technologie ist eine der vielversprechendsten technologischen Entwicklungen der letzten Jahre. Insbesondere durch die hohe Volatilität der kryptographischen Währung Bitcoin, wurde die zugrundeliegende Technologie popularisiert. Trotz des grossen Interesses mangelt es häufig an Wissen über die Funktionsweise der Technologie und das Potential bleibt oft unentdeckt oder wird missverstanden. Zahlreiche Start-Ups und etablierte Unternehmen arbeiten an Blockchain-basierten Applikationen, um bestehende Geschäftsmodelle zu revolutionieren. Dabei hat die Blockchain-Technologie das Potential bestehende Prozesse durch den Ausschluss von Intermediären komplett umzugestalten.
Neben einer umfassenden Erklärung der technischen Funktionsweise der BlockchainTechnologie, untersucht die vorliegende Bachelorarbeit die möglichen Anwendungsgebiete von Blockchain-basierten Applikationen im Gesundheitswesen. Diese Bachelorarbeit hat das Ziel, die Funktionsweise der Blockchain-Technologie für Personen ohne fachspezifischen Hintergrund verständlich zu vermitteln und die Anwendungspotentiale im Gesundheitswesen aufzuzeigen.2018-01-01T00:00:00ZKiller Features für eine App für Pflegebedürftige und deren Angehörige finden
https://digitalcollection.zhaw.ch/handle/11475/12447
Title: Killer Features für eine App für Pflegebedürftige und deren Angehörige finden
Authors: Waldvogel, Silvan
Abstract: Die Überalterung der Bevölkerung übt Druck auf die Sozial- und Gesundheitssysteme aus und führt zu einer geringeren Verfügbarkeit von Pflegepersonal. Um diesen Herausforderungen zu begegnen, werden unter anderem Assistive Technologies eine wichtige Rolle spielen. Diese Assistive Technologies können beispielsweise Applikationen wie eine Pflege-Applikation für Mobiltelefone sein. Eine Herausforderung für solche Applikationen ist jedoch deren oft stigmatisierende Wirkung. Das heisst, ältere Personen kommen sich durch deren Besitz oder deren Nutzung noch älter vor und möchten oder können sie unter diesen Umständen nicht nutzen.
In der vorliegenden Bachelorarbeit werden mögliche Killer Features für eine Pflege-App, welche die Nutzer von einem frühen Gebrauch der App überzeugen, identifiziert und validiert. Weiter wird ein Vorschlag gemacht, wie die Killer Features in ein Gesamtkonzept für eine solche App passen und integriert werden können.2018-01-01T00:00:00ZDesign und prototypische Implementierung einer multimedialen Lern-Plattform für Phishing Prävention im KMU-Umfeld
https://digitalcollection.zhaw.ch/handle/11475/12446
Title: Design und prototypische Implementierung einer multimedialen Lern-Plattform für Phishing Prävention im KMU-Umfeld
Authors: Bolt, Jeremy
Abstract: Phishing ist eine Art der Cyber-Attacke, bei welcher einem Opfer eine Nachricht versendet wird, die vortäuscht von einer vertrauenswürdigen Quelle oder Organisation zu stammen. Typischerweise versuchen Phishingmails die Opfer davon zu überzeugen, persönliche Informationen wie Benutzernamen, Passwörter, Kreditkarten-Informationen oder Bankdaten preiszugeben.
Phishing-Attacken können sowohl Privatpersonen sowie Unternehmen angreifen. Unternehmen setzen verschiedene Anti-Phishing-Massnahmen ein, wie Email-Filtering, AntiPhishing Toolbars, Anti-Phishing Education sowie Phishing-Tests innerhalb der Organisation. Eine Lern-Plattform für Anti-Phishing Education wurde in dieser Arbeit designt und prototypisch in einem Schweizer KMU umgesetzt. Durch das Versenden von Phishingmails an die Mitarbeiter dieses KMUs wurde untersucht, ob eine Lern-Plattform die Anzahl an erfolgreichen Phishing-Attacken senken kann.2018-01-01T00:00:00ZDesign und Entwicklung einer REST-API für eine verteilte Gutscheinverwaltung
https://digitalcollection.zhaw.ch/handle/11475/12445
Title: Design und Entwicklung einer REST-API für eine verteilte Gutscheinverwaltung
Authors: Prader, Raphael
Abstract: Verschiedene Geschäfte aus dem Grossraum Ostschweiz haben 2016 ein gemeinsames Gutscheinheft für ihre Kunden lanciert. Das Prinzip des Gutscheins funktioniert so, dass alle Einkäufe bei den teilnehmenden Geschäften von den Kunden gesammelt werden, wobei beim letzten Einkauf ein individueller Gutschein ausgestellt wird. Der gewährte Gutscheinbetrag ist dabei abhängig vom Gesamteinkaufsbetrag und wird beim letzten Einkauf abgezogen. An einem eingelösten Gutschein beteiligen sich jene Unternehmen, bei denen die jeweilige Kundschaft eingekauft hat, wobei das zuletzt besuchte Unternehmen zwangsläufig in Vorleistung geht und den Rabatt vom Einkauf in Abzug bringt. Bis anhin haben die Geschäfte in unregelmässigen Abständen untereinander abgerechnet, was mit grossem manuellem Aufwand verbunden war.
Diese Arbeit beantwortet die Frage, wie sich die manuellen Aufwände mit einer Softwarelösung maximal automatisieren und dadurch reduzieren lassen. Um sämtliche Vorgänge so effizient wie möglich abwickeln zu können, wurde die optimale Benutzerführung (Usability) für die Anwendung erarbeitet. Die am Gutscheinheft beteiligten Geschäfte können mit der neuen Lösung die gewährleisteten Gutscheinbeträge untereinander automatisch abrechnen lassen. Der manuelle Rechenaufwand entfällt dabei.2018-01-01T00:00:00ZPrototypische Realisierung einer mobilen Anwendung für die simultane Aktivitätsmessung mit Schrittzähler und EMG-Sensoren
https://digitalcollection.zhaw.ch/handle/11475/12444
Title: Prototypische Realisierung einer mobilen Anwendung für die simultane Aktivitätsmessung mit Schrittzähler und EMG-Sensoren
Authors: Fuchs, Raphael
Abstract: Die Messung der körperlichen Aktivität ist Bestandteil diverser wissenschaftlicher Disziplinen, wie beispielsweise den Sport- und Gesundheitswissenschaften, wo die Erfassung von Aktivität zur Prävention und Rehabilitation eingesetzt wird. Diesbezüglich entwickelten sich im Laufe der Zeit eine Reihe von Technologien zur Erfassung unterschiedlicher Formen von körperlicher Aktivität. Die Elektromyographie (EMG) ermöglicht die spezifische digitale Erfassung der elektrischen Muskelaktivität von Lebewesen. Mit sogenannten Schrittzählern wird heutzutage die allgemeine körperliche Aktivität von Personen aufgezeichnet. In der vorliegenden Bachelor-Thesis wurden die beiden genannten Technologien in einer mobilen Software miteinander kombiniert, um so den Aktivitätsverlauf zwischen Schritten und Gesten digital abzubilden und zu analysieren. Die Erkenntnisse dieser Arbeit fliessen letztlich die Entwicklung einer Software ein, welche im Umfeld der Ergotherapie für die Analyse von Bewegungsabläufen verwendet wird.2018-01-01T00:00:00ZAnalyse, Design und Umsetzung eines RAD-Framework für mobile Geräte
https://digitalcollection.zhaw.ch/handle/11475/12443
Title: Analyse, Design und Umsetzung eines RAD-Framework für mobile Geräte
Authors: Weber, Manuel
Abstract: Unternehmen im digitalen Zeitalter benötigen verschiedene Applikationen, welche die Abwicklung von Geschäftsprozessen mit internen und externen Partnern unterstützen. Um an solche Anwendungen zu gelangen, haben Unternehmen drei Möglichkeiten: Standardlösungen, Entwickeln durch externe Anbieter und Eigenentwicklung. Eine Eigenentwicklung wird von den meisten Unternehmen bevorzugt, jedoch ist eine solche für viele Firmen schwierig umzusetzen. Gründe dafür sind das fehlende Wissen in Unternehmen und der grosse Aufwand der Entwicklung. Rapid Application Development (RAD) beschäftigt sich mit dem möglichst schnellen und einfachen Entwickeln von Applikationen. Um dieses Ziel zu erreichen, gibt es verschiedene RADFrameworks, die einen Teil, oder sogar den ganzen Prozess, einer Applikationsentwicklung vereinfachen und beschleunigen. In einem Forschungsprojekt der ZHAW ist das Path-Framework entstanden. Dieses Framework unterstützt das Entwickeln des Front-End durch das Erstellen eines technologieunabhängigen GUI (Graphical User Interface) für Desktopcomputer. Durch das massive Zunehmen von mobilen Endgeräten müssen Applikationen heutzutage nicht mehr nur für den Desktop, sondern auch für Smartphones und Tablets entwickelt werden. Aus diesem Grund wird das PathFramework in dieser Arbeit weiterentwickelt, sodass damit ein generisches GUI definiert werden kann, das auf verschiedenen Endgeräten optimiert angezeigt wird.2018-01-01T00:00:00ZPeople Analytics : die Bedeutung der Analyse von mitarbeiterbezogenen Daten für die moderne Unternehmensführung
https://digitalcollection.zhaw.ch/handle/11475/12442
Title: People Analytics : die Bedeutung der Analyse von mitarbeiterbezogenen Daten für die moderne Unternehmensführung
Authors: Hegetschweiler, Dario
Abstract: Das Thema People Analytics nimmt aufgrund der zunehmenden Digitalisierung an Bedeutung zu. Obwohl vielen Unternehmen bewusst ist, dass die Mitarbeiter einen bedeutenden Faktor für den Geschäftserfolg darstellen, ist die Verbreitung von analytischen Vorgehensweisen im Personalwesen aufgrund von diversen menschlichen, technischen, fachlichen, gesetzlichen und unternehmenskulturellen Faktoren geringer als in anderen Geschäftsbereichen. Dies stellt insbesondere für kleinere Unternehmen aufgrund der beschränkten finanziellen Mittel und der fehlenden Standardlösungen eine Herausforderung dar.
Daher untersucht diese Arbeit, wie der Einstieg in das Thema People Analytics für solche Unternehmen vereinfacht werden kann. Dazu wurden die relevantesten Daten und die gesetzlichen Einschränkungen erarbeitet und die Vorteile sowie die organisationalen Veränderungen aufgezeigt. Dafür wurden Anwendungsmöglichkeiten von People Analytics erklärt und mit Beispielen versehen.2018-01-01T00:00:00ZErfassung von Bewegungsdaten der Hand mit EMG für Anwendungen in der Ergotherapie
https://digitalcollection.zhaw.ch/handle/11475/1393
Title: Erfassung von Bewegungsdaten der Hand mit EMG für Anwendungen in der Ergotherapie
Authors: Zurmühle, Patrick
Abstract: Die Hand, welche von Immanuel Kant als zweites Gehirn bezeichnet wird, steht im Zentrum vieler täglicher Aktivitäten. Verletzungen und Erkrankungen, welche die Bewegungsfähigkeit der Hand einschränken, verhindern die Teilnahme an vielen Aktivitäten des täglichen Umfelds.
Die Ergotherapie ist ein Tätigkeitsfeld, welches das primäre Ziel hat, Menschen zu ermöglichen, trotz mentaler oder körperlicher Einschränkungen an Aktivitäten ihres täglichen Lebens teilzunehmen. Der Einsatz von Elektromyographie (EMG) soll die Effizienz der ergotherapeutischen Behandlung der Hand erhöhen und zu neuen Behandlungs- und Analyseformen führen. Die Elektromyographie ist eine Untersuchungsmethode, mit welcher die elektrische Aktivität von Muskeln gemessen wird. Ein Vorteil dabei ist, dass bei Untersuchungen mittels EMG keine physische Einwirkung durch den Arzt auf die Hand ausgeübt werden muss.
Innerhalb dieser Forschungsarbeit wurden die Eigenschaften der Elektromyographie hinsichtlich diverser Einsatzgebiete untersucht. Dafür wurde ein Prototyp entwickelt, mit welchem die Aufnahme von ergotherapeutisch spezifischen Handbewegungen möglich ist und der die resultierenden EMG-Signale vorverarbeitet in ein für diverse Analyseverfahren geeignete Form transformiert. Das EMG-Gerät, mit welchem der Prototyp Daten einliest, ist das von Thalmic entwickelte Myo Gesture Armband, welches acht EMGSensoren-Paare besitzt.
Für die Untersuchungen der Sensoren wurden an Probanden Testmessungen durchgeführt, um herauszufinden, wie diese in der Ergotherapie einsetzbar sind. Mit den erhobenen Daten wurde untersucht, ob adäquate Winkelmessungen an der Hand durchführbar sind, ob die erhobenen Werte zeitlich stabil bleiben und somit reproduzierbar sind und ob eine Gestenerkennung von ergotherapeutisch typischen Handpositionen möglich ist.
Mit der Evaluation der Daten konnte gezeigt werden, dass durch den stochastischen Charakter des EMG-Signals keine adäquate Winkelmessung durchführbar ist, jedoch Winkelschätzungen
im Bereich von +/- 5 bis 10 Grad denkbar sind. Die Aufnahmen zweier verschiedener Aufnahmetage zeigten, dass das EMG einer Position stärker variiert, wenn die Probanden mehr Freiheit in der Ausführung hatten. Die Ausführung von Handpositionen, in welchen der Unterarm fixiert ist, resultiert mit nur geringen Variationen. Der Einsatz von EMG in der Ergotherapie sollte sich demnach für eine Reproduzierbarkeit auf Positionen mit wenig Ausführungsspielraum konzentrieren oder standardisierte Schienen für Messungen vorsehen. Ebenso resultierte aus der Auswertung, dass die Sensoren für Gestenerkennung geeignet und imstande sind, fehlerhafte Ausführungen von Handgesten zu identifizieren. Für die Bestimmung minimaler Abweichungen sind die eingesetzten Sensoren jedoch zu ungenau.
Zusammenfassend kann gesagt werden, dass sich mit dem Einsatz von EMG-Sensoren konventionelle Messmethoden in der Ergotherapie nicht ersetzen lassen, diese jedoch eine vielversprechende Basis für die künftige Entwicklung für unterstützende Analysesysteme innerhalb der Ergotherapie darstellen.2017-01-01T00:00:00ZDatenqualität als kritischer Erfolgsfaktor bei Datenmigrationen
https://digitalcollection.zhaw.ch/handle/11475/1392
Title: Datenqualität als kritischer Erfolgsfaktor bei Datenmigrationen
Authors: Kreis, Lara
Abstract: In der vorliegenden Bachelorarbeit wird der Einfluss der Datenqualität auf den Erfolg einer Datenmigration untersucht. Zu diesem Thema wurde in der Forschung bis heute erst wenig geforscht. Die meisten Autorenwerke legen Ihren Fokus auf die Wichtigkeit der Datenqualität in Data-Warehouse-Systemen.
Diese Arbeit versucht eine Antwort auf die Frage, welche Auswirkung die Datenqualität auf den Erfolg einer Datenmigration hat, herzuleiten. Eine Datenmigration kommt zu Stande, wenn ein Unternehmen beschliesst, ein altes System abzulösen und durch ein neues zu ersetzen. Das Ergebnis ist eine Aussage darüber, inwiefern die Datenqualität den Erfolg einer Datenmigration beeinflusst.
Im theoretischen Teil werden die grundlegenden Begriffe dieser Arbeit definiert, sowie die Relevanz der Datenqualität aufgezeigt. Darauf basierend werden im empirischen Teil dieser Forschungsarbeit ein mündliches Experteninterview sowie eine quantitative Erhebung durchgeführt. Aufgrund der empirischen Untersuchung ist es möglich, eine Handlungsempfehlung an Migrationsprojekte abgeben zu können. Die Empfehlungen basieren auf der bestehenden Literatur, den Aussagen aus der Expertenbefragung und den Resultaten der quantitativen Untersuchung.
Die Auswertung der quantitativen Untersuchung zeigt, dass die Datenqualität den Migrationserfolg zu 49.4% beeinflusst. Dies weist darauf hin, dass die Datenqualität ein sehr wichtiger Faktor ist, um ein Migrationsprojekt zum Erfolg zu führen. Für die quantitative Untersuchung wurden acht Datenqualitätskriterien und sieben Erfolgskriterien herangezogen. Das Ergebnis dieser quantitativen Untersuchung wurde mittels einem Strukturgleichungsmodell erlangt. Weiter zeigt das Experteninterview, dass die Datenbereinigung möglichst früh im Projekt angegangen werden muss. Dabei ist es wichtig, dass sich ein Team um die Beauftragung und Überwachung der Datenbereinigungen kümmert.
Die Datenqualität ist in der heutigen Zeit ein wichtiges Thema. Diese Arbeit zeigt, dass die Datenqualität bei einer Datenmigration eine wichtige Rolle spielt und nicht ausser Acht gelassen werden darf. Ohne eine akzeptable Datenqualität ist eine Datenmigration unmöglich.
Zum Schluss wird eine Handlungsempfehlung an Unternehmen mit Migrationsprojekten abgegeben. Diese erläutert, wie ein Migrationsprojekt in Zukunft, in Bezug auf die Datenqualität, besser unterstützt werden kann. Es ist wichtig, die Datenqualität früh im Projekt zu integrieren. In Bezug auf die Datenmigration und die Datenqualität müssen Qualitätskennzahlen definiert werden. Die Kennzahlen müssen überwacht werden,
damit im Falle einer Nichterfüllung noch vor der Datenmigration reagiert werden kann. Das Bestehen einer Data Governance im Unternehmen ist sowohl in Bezug auf eine Datenmigration als auch im Geschäftsalltag ein wichtiges Element. In der Data Governance werden Richtlinien und Regeln an die Daten definiert. Dadurch ist es möglich, auch nach der Datenmigration, eine hohe Datenqualität zu gewährleisten.2017-01-01T00:00:00ZPrototypische Implementation einer oBPM-Ausführungsumgebung : basierend auf der NoSQL-Datenbank ArangoDB
https://digitalcollection.zhaw.ch/handle/11475/1259
Title: Prototypische Implementation einer oBPM-Ausführungsumgebung : basierend auf der NoSQL-Datenbank ArangoDB
Authors: Zumsteg, Remo
Abstract: Das Konzept von Prozessautomatisierungs-Systemen ist bereits seit Jahrzehnten ein fester Bestandteil von Geschäftsorganisationen. Mit den Jahren haben sich anhand verschiedener Einsatzgebiete unterschiedliche Konzepte entwickelt, wie und auf welche Weise Prozessmodelle definiert und in Automatisierungslösungen implementiert werden.
Neben den traditionellen control-flow-basierten Prozessmodellen haben sich dokument- und artefakt-zentrische Modellierungskonzepte durchgesetzt. Diese stellen die Dokumente und Artefakte eines Prozesses in den Mittelpunkt und fokussieren sich weniger auf den statischen Control-Flow traditioneller Prozessmodelle. Zu den bereits bestehenden dokument-zentrischen Prozessmodellen hat sich das Konzept des Opportunistic Business Process Modeling (oBPM) dazu gesellt.
Im Rahmen dieser Arbeit wird ein Software-Prototyp basierend auf dem Datenbanksystem ArangoDB implementiert, auf dessen Basis oBPM-basierte Prozessmodelle definiert und ausgeführt werden können. Mit Hilfe des umgesetzten Prototypen wird geprüft, inwiefern sich ArangoDB für die Umsetzung eines oBPMSystems eignet hinsichtlich der Performance, Skalierbarkeit und weiteren nichtfunktionalen Anforderungen.
Dazu werden in dieser Arbeit in einem ersten Schritt die Anforderungen an ein oBPM-Modellierungs- und Ausführungssystem analysiert und zusammengefasst. In einem nächsten Schritt wird der Funktionsumfang und die Einsatzmöglichkeiten von ArangoDB geprüft, um auf dieser Basis die zu implementierende Datenstruktur zu planen. Danach werden verschiedene Varianten von möglichen Systemarchitekturen evaluiert und miteinander verglichen. Nach Abschluss der Analyse wird die Umsetzung der Implementation aufgezeigt, hinsichtlich der Datenstrukturen und Applikationsschnittstellen. Als letzter Teil dieser Arbeit wird aufgezeigt, wie die umgesetzte Implementation bezüglich der funktionalen Anforderungen, der Performance und der Skalierbarkeit getestet wird.
Anhand des in dieser Arbeit implementierten Prototypen kann aufgezeigt werden, dass sich die verwendeten Software-Komponenten, im Speziellen ArangoDB, sehr gut für die Umsetzung eines oBPM-Systems eignen. Alle funktionalen Anforderungen können im Prototypen umgesetzt werden. Vor allem das Multi-Model-Konzept von ArangoDB, welches dokumenten- und graphen-basierte Datenbankkonzepte vereint, eignet sich gut um die in der Modellierung nach oBPM anfallenden Datenstrukturen zu persistieren.
Mit Hilfe von Performancetests anhand verschiedener Benutzungsszenarien kann aufgezeigt werden, dass die vom implementierten Prototyp erreichte Performance und Skalierbarkeit nicht für den produktiven Betrieb genügend ist. Die Reaktionszeit des Systems unter hoher Last übersteigt die in den Testszenarien definierten Richtwerten von unter 2 Sekunden beträchtlich.
Nichtsdestotrotz kann diese Arbeit aufzeigen, dass die Implementation eines oBPMbasierten Systems zur Modellierung und Ausführung von Prozessen in funktionaler Hinsicht möglich ist und dass sich das Datenbanksystem ArangoDB als zentrale Einheit einer oBPM-Umgebung bewährt.2016-01-01T00:00:00Z