Res2Cat: A tool for assigning Research Results to Categories

funded by DFG

administration
 
 
  
Display options:display allby discipline:
by year:
by school:

(Currently 360 dissertation(s) in database.)
360 results
display references only
 
Produktivitätssteigerungen durch Workflow-Management
Beckert, Hubert
Universität Köln (1999)
Abstract:
Die Unterstützung der Ablaufgestaltung im Rahmen von Reorganisationsmaßnahmen durch den Einsatz von Workflow- Management-Systemen ist in den vergangenen Jahren immer mehr zu einem wichtigen Thema in der Organisationspraxis geworden. Eine besondere Stellung innerhalb der betreffenden Projekte nimmt dabei die Abstimmung des Systemeinsatzes mit der zugrunde liegenden Organisation ein. „Wie sollen verbesserte Abläufe aussehen?, „Welchen Beitrag kann die Technik leisten? und „An welchen Kennzahlen kann eine Orientierung erfolgen? sind die Kernfragen, mit denen die Projektmitarbeiter konfrontiert werden. Die vorliegende Arbeit befaßt sich mit dem Problem einer ausgewogenen Kombination von Organisation und Technik. Aufbauend auf einer Analyse des vorhandenen theoretischen Instrumentariums einschließlich der modernen Ansätze des Business Process Reengineering werden konkrete Gestaltungsmaßnahmen auf ihre Eignung zur Erzielung von Produktivitätsvorteilen untersucht. Hierzu wird ein Konzept für ein „Produktivitäts-Controlling entworfen und Möglichkeiten einer praktikablen Leistungsmessung dargestellt. Auf der Basis von 10 Fallbeispielen, die im Anhang detailliert beschrieben sind, werden Wirkungszusammenhänge zwischen organisatorisch-technischen Maßnahmen und resultierenden Produktivitätseffekten aufgezeigt und bewertet. Im Ergebnis wird eine auch für andere Projekte verwendbare Vorgehensweise zur Kategorisierung von Workflow-Projekten entwickelt, aus der Handlungsempfehlungen im Hinblick auf geeignete Maßnahmen in Abhängigkeit von der Projektzielsetzung abgeleitet werden.
Comment:
1. Gutachter: Seibt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Hypothesengesteuerte Analyse von Objektarchitekturen
Fröhlich, Joachim Hans
Universität Linz (1999)
Abstract:
Programmentwickler werden häufig mit Problemen konfrontiert, die aus dem Unterschied zwischen statischer Programmstruktur und Programmverhalten entstehen. In objekt-orientierten Programmen bereitet der Unterschied besondere Probleme. Wie kann in Anbetracht dieser Probleme die Programmqualität gesichert werden? Das Buch erläutert eine analytische Technik zur Qualitätssicherung. Im Mittelpunkt stehen Hypothesen über das Verhalten eines objektorientierten Programms unabhängig von der Programmiersprache. Die Hypothesen sind automatisch prüfbar und unterstützen damit vor allem das Testen und Dokumentieren von Programmen.
Comment:
1. GutachterIn: Prof. Dr. Gustav Pomberger Institution: Universität Linz 2. GutachterIn: Prof. Dr. Hanspeter Mössenböck Institution: Universität Linz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Betriebliche Informationssysteme in Virtuellen Organisationen
Zimmermann, Frank
Universität Bamberg (1999)
Abstract:
Theoretisches Erkenntnisziel ist die Erklärung des Phänomens der Virtuellen Organisation. Auf der Basis eines theoretischen Bezugsrahmens werden deduktiv wesentliche Elemente einer Theorie der Virtuellen Organisation erarbeitet. Auf dieser Grundlage wird als pragmatisches Erkenntnisziel die Entwicklung eines umfassenden Gestaltungsrahmens für das betriebliche Informationssystem angestrebt. Der Gestaltungsrahmen soll eine Hilfestellung für erfolgreiches Management im Unternehmen und in Unternehmensnetzwerken sein. Hierzu wird insbesondere der Einsatz neuer Informationstechnologien für die Gestaltung neuer Organisationsformen systematisch erarbeitet und in einem Fallbeispiel dargestellt.
Comment:
1. GutachterIn: Prof. Dr. Elmar J. Sinz Institution: Universität Bamberg 2. GutachterIn: Prof. Dr. Otto K. Ferstl Institution: Universität Bamberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Simulationsmethoden zur Energieumsatzprognose in metallurgischen Anlagen
Weishaar, Gerd Herbert
Universität Linz (1999)
Abstract:
Moderne Stahlerzeugungsbetriebe sind auf Grund des verstärkten Konkurrenzkampfes und der Ressourcenverteuerung gezwungen, ihre Produktionsprozesse hinsichtlich der Ressourcenauslastung und des Energieverbrauches zu optimieren. Ziel dieser Arbeit war es, zu zeigen welche Simulationsmethoden für die Simulation von metallurgischen Anlagen zur Energieumsatzprognose geeignet sind. Für diesen Forschungszweck wurden 3 Simulationsmethoden aus verschiedenen Disziplinen ausgewählt. Die Simulationsmethoden sind die zeitdiskrete Simulation, die statischen Methoden der Zeitreihenanalyse und die künstlichen neuronalen Netze.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Objektorientierte Referenzmodellierung - Theoretische Grundlagen und praktische Anwendung
Schwegmann, Ansgar
Universität Münster (1999)
Abstract:
Die Referenzmodellierung ist ein relativ junges Forschungsgebiet der Wirtschaftsinformatik, welche die Entwicklung und Nutzung wiederverwendbarer fachkonzeptueller Informationsmodelle zum Ziel hat, um die Wirtschaftlichkeit der Erstellung und die Qualität unternehmensindividueller Modelle zu fördern. Ausgangspunkt der Arbeit ist die Feststellung, dass die Anforderungen, welche an Referenzmodelle zu stellen sind, mit den Potentialen korrespondieren, die mit den Konzepten des objektorientierten Paradigmas verbunden werden. Ziel ist es, einerseits relevante Konzepte des objektorientierten Paradigmas der Informatik hinsichtlich eines Nutzens für die fachkonzeptuelle Referenzmodellierung zu bewerten und andererseits einige methodische Erweiterungen auf Basis dieser Konzepte zu motivieren.
Comment:
1. GutachterIn: Prof. Dr. Jörg Becker Institution: Universität Münster 2. GutachterIn: Prof. Dr. Gottfried Vossen Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Rating von Volkswirtschaften mit künstlich-neuronalen Netzen
Kammerer, Stephan
Universität Heidelberg (1999)
Abstract:
Die wesentliche Zielsetzung dieses Buchs ist die Übertragung von Rating-Bewertungsstrukturen auf das ´Standing´ von Volkswirtschaften. Auf der Grundlage eines magischen Vielecks werden mit Merkmalen sogenannte Zielerreichungsgrade assoziiert, die im Sinne einer Mehrzieleoptimierung einer Energiefunktion, wie man sie von den Rechenprinzipien künstlich-neuronaler Netze kennt, zu minimieren sind. Methodisch wird der Rating-Ansatz mit künstlich-neuronalen Netzen durchgeführt, wobei die Minimierung der Energiefunktion mit den aus der kombinatorischen Optimierung bekannten Verfahren des Simulated Annealing und mit dem Threshold Accepting Algorithmus erfolgt. Formal wird ein ´Datenmarkt´ eingeführt, der zur Präzisierung bisheriger Verbaldefinitionen führt, und vor dessen Hintergrund eine mikroökonomisch fundierte Analyse möglich ist. Auf der Basis von Kardinalitätsvektoren wird eine Präferenzordnung festgelegt, für die wichtige Eigenschaften aus der Wohlfahrtstheorie verlangt werden.
Comment:
1. GutachterIn: Prof. Roland Fahrion Institution: Uni Heidelberg 2. GutachterIn: Prof. Gunter Dueck Institution: IBM Wissenschaftszentrum Heidelberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Wissensbasierte Bedrohungs- und Risikoanalyse Workflow-basierter Anwendungssysteme
Thoben, Wilfried
Universität Oldenburg (1999)
Abstract:
Der in der Arbeit entwickelte Ansatz TRAW (Knowledge Based Threat and Risk Analysis of Workflow Based Applications) beschäftigt sich mit der Integration der Konzepte und Methoden des Risiko-Managements in das Workflow-Management, um so eine Entwicklung sicherer Workflow-basierter Anwendungen zu ermöglichen. Hierzu wird ein integriertes Vorgehensmodell bereitgestellt, dessen Basis ein erweiterbares System-Metamodell und Typen von Sicherheitsanforderungen bilden, die bzgl. eines konkreten Systems spezifiziert werden. Zur Kontrolle dieser Anforderungen wird ein wissensbasiertes Risikomodell präsentiert, welches insbesondere die Verwendung sowohl kardinaler als auch ordinaler Bewertungen in Form eines auf der Fuzzy-Logik basierenden unscharfen Bewertungskonzeptes erlaubt und den Entwickler frühzeitig auf Schwachstellen im System hinweist. Das gesamte Konzept wird durch ein Software-Werkzeug TRAW-T unterstützt und anhand eines praxisnahen Anwendungsbeispiels evaluiert.
Comment:
1. GutachterIn: Prof. Dr. Hans-Jürgen Appelrath Institution: Universität Oldenburg 2. GutachterIn: Prof. Dr. Günther Pernul Institution: Universität Essen 3. GutachterIn: Prof. Dr. Stephanie Teufel Institution: Universität Fribourg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Elektronische Handelssysteme
Gomber, Peter
Universität Karlsruhe (1999)
Abstract:
Im außerbörslichen Wertpapierhandel (OTC-Handel) agieren Marktteilnehmer heute direkt via Telefon oder indirekt über Broker. Speziell im Rentenhandel wird der börsliche Handel bezüglich der gehandelten Volumina durch den OTC-Handel deutlich dominiert. Aufbauend auf einer umfassenden Analyse des "State of the Art" Elektronischer Handelssysteme sowie einer integrativen Betrachtung von Marktmikrostrukturen undinnovativen Softwaretechnologien liefert das Buch einen Beitrag zur "Technostructure" von Finanzmärkten. Ergebnis ist der Prototyp eines Handelssystems für Rentenwerte, das auf der Technologie der Softwareagenten basiert. Der Prototyp AMTRAS zeigt, im Sinne einer "implementierten Hpothese", dass die Realisierung eines agentenbasierten Handelssystems ökonomisch sinnvoll, konzeptionell machbar und technisch realisierbar ist.
Comment:
1. GutachterIn: Prof. Dr. Christof Weinhardt Institution: Universität Karlsruhe 2. GutachterIn: Prof. Dr. Wolfgang Bessler Institution: Universität Giessen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entwicklung eines Konzeptes zur Modellierung und Evaluation von Workflows
Gadatsch, Andreas
Fernuniversität Hagen (1999)
Abstract:
Das Buch behandelt die Gestaltung computerunterstützter Arbeitsabläufe und organi-satorischer Strukturen unter Verwendung von Workflow-Management-Systemen. Es stellt ein umfassendes methodisches Instrumentarium zur Modellierung und Evaluierung von Geschäftsprozessen und Workflows zur Verfügung. Das vorgestellte Konzept umfasst den vollständigen Zyklus eines Geschäftsprozesses, ausgehend von der Entwicklung der Geschäftsstrategie, über die Geschäftsprozessanalyse und deren Restrukturuierung sowie Modellierung bis hin zur detaillierteren Workflow-Modellierung, -Simulation und -Ausführung.
Comment:
1. GutachterIn: Prof. Hermann Gehring Institution: Fernuniversität Hagen 2. GutachterIn: Prof. Dr. H. Wilhelm Rödder Institution: Fernuniversität Hagen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Strategieentwicklung im kommunalen Standortmarketing. Ein wissensbasiertes System zur Unterstützung der strategischen Ausrichtung des Standort-marketings von Kommunen im Rahmen ihrer Wirtschaftsförderung.
Wolfertz, Klaus
Universität Göttingen (1999)
Abstract:
Die Entwicklung einer Standortmarketingstrategie für Kommunen kann wirkungsvoll durch ein wissensbasiertes System auf Grundlage der Fuzzy Logic unterstützt werden. Beschrieben werden Konzept und praktische Umsetzung eines Prototypen, der für einzelne Städte und Gemeinden eine unique selling proposition im Vergleich zu Konkurrenzstandorten bestimmt und gleichzeitig geeignete Zielgruppen für die Ansiedlungswerbung identifiziert. In einem Praxistest in drei deutschen Städten wurden die Strategievorschläge des Prototypen den Empfehlungen aus Wirtschaftsförderungsgutachten gegenübergestellt, wobei die mit dem Fuzzy System ermittelten Aussagen sich als durchaus gleichwertig erwiesen. Das System ist jedoch keine "Strategiemaschine", die den Wirtschaftsförderer ersetzt, sondern ein Werkzeug gerade für den Experten, das systematisch vorgeht, von Routinetätigkeiten befreit und ihn seine eigentlichen Stärken besser ausspielen lässt.
Comment:
1. GutachterIn: Prof. Dr. Jörg Biethahn Institution: Universität Göttingen 2. GutachterIn: Prof. Dr. Helmut Brede Institution: Universität Göttingen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ein Modell für den Umstieg von konventioneller auf objektorientierte Softwareentwicklung
Auer, Dagmar
Universität Linz (1999)
Abstract:
Die Objekttechnologie hat sich in den letzten Jahren als neues Paradigma für die Softwareentwicklung etabliert. Viele Unternehmen versprechen sich von dieser Technologie eine verbesserte Qualität ihrer Softwareprodukte sowie eine höhere Produktivität ihrer Entwicklungsteams und stehen daher vor dem Umstieg von konventioneller auf objektorientierte Softwareentwicklung oder befinden sich bereits mitten in diesem Prozess. Dieser Umstiegsprozess muss gut geplant und vorbereitet werden und ist von zahlreichen, schwierigen Entscheidungen und Problemen begleitet. In der vorliegenden Arbeit wird ein Modell für den Umstieg von konventioneller auf oo Softwareentwicklung entwickelt und beschrieben, welches die Planung und Gestaltung dieses Prozesses erleichtern soll und Hilfestellung dabei leistet, die häufigsten und gravierendsten Probleme zu bewältigen.
Comment:
1. GutachterIn: Prof. Gustav Pomberger Institution: Universität Linz 2. GutachterIn: Prof. Gerhard Reber Institution: Universität Linz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Value Webs - Emerging forms of fluid and flexible organizations
Selz, Dorian
Universität St. Gallen (1999)
Abstract:
Information Technology has a significant impact on industrial organization as well as individual organizations. The significantly lower costs of obtaining, processing, and transmitting information and the arising (electronic) information links within and between firms spur radical changes in the way companies operate and cause the deintegration of industrial market structures. The result is smaller firms, virtual organizations and complex interorganizational structures. The redefinition of such relationships is spurred by the emergence of specialized (cyber-)intermediaries. These emerging, product and service integrators create new digital values and business propositions by offering additional information or transaction services, by repackaging their current information assets and by integrating third-party products. A new business model is emerging: The value chain looses its chain attributes, and is replaced by a web of fluid and flexible relations - the value web.
Comment:
1. GutachterIn: Prof. Dr. Beat Schmid Institution: Universität St. Gallen 2. GutachterIn: Prof. Dr. Stefan Klein Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Virtuelle Transaktionsgemeinschaften im Electronic Commerce: Management, Marketing und Soziale Umwelt
Schubert, Petra
Universität St. Gallen (1999)
Abstract:
Die Arbeit identifiziert den Aufbau und das Management Virtueller Transaktions-gemeinschaften als eine Maßnahme für die Steigerung von Vertrauen in elektronische Geschäftsbeziehungen. In sechs Kapiteln werden drei Schlüsselstärken des Konzepts Virtueller Transaktionsgemeinschaften diskutiert: Soziale Aspekte und die Bildung von Vertrauen in Geschäftspartner und Medium, die Potentiale für das Erzeugen wertvollen Gemeinschaftswissens und die Steigerung der Käufermacht durch Nachfrageaggregation bzw. die Nutzung von Economies of Scale. Die Analyse des sozialen Umfeldes erläutert Rollen von Gesellschaft und Staat, der Bewältigung des Wandels sowie der Bedeutung von Erziehung und ethischen Aspekten. Die Beschreibungen einer konkreten Form eines solchen Mediums (dem Partizipativen Elektronischen Produktkatalog) soll EC-Anbietern einen pragmatischen, umsetzbaren Leitfaden an die Hand geben. Die Ausführungen werden abgerundet durch über 20 Fallstudien zu heute existierenden VC.
Comment:
1. GutachterIn: Prof. Dr. Beat Schmid Institution: Universität St. Gallen 2. GutachterIn: Prof. Dr. Stefan Klein Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Interorganisatorische Informationssysteme. Ein Analyse- und Gestaltungs-rahmen für das Informationsmanagement
Gaugler, Thomas
Universität Zürich (1999)
Abstract:
Immer häufiger erkennen Unternehmen das Potential interorganisatorischer Informationssysteme [IOS] zur Erschliessung neuer Geschäftsbeziehungen und innovativer Unternehmensstrategien. Das wird in der zunehmenden Nutzung des Internets für Electronic Commerce im Business-to-Business-Bereich deutlich. Thomas Gaugler entwickelt einen umfassenden, wirkungsorientierten Analyse- und Gestaltungsrahmen, der dem Informationsmanagement die systematische Planung, Entwicklung und Einführung von IOS ermöglicht. Der Autor zeigt die theoretischen Grundlagen, den aktuellen Stand und die möglichen Wirkungen eines IOS-Einsatzes auf. Darüber hinaus präsentiert er konkrete Gestaltungsoptionen, bei denen verschiedene Perspektiven und Zielgruppen unterschieden werden.
Comment:
1. GutachterIn: Prof. Dr. Kurt Bauknecht Institution: Universität Zürich 2. GutachterIn: Prof. Dr. Stefan Klein Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Objektorientierte Referenzmodelle für das Prozess- und Projektcontrolling - Grundlagen - Konstruktion - Anwendungsmöglichkeiten
Schlagheck, Bernhard
Universität Münster (1999)
Abstract:
Das Controlling stellt aufgrund seiner häufig unzulänglichen Konkretisierung und Operationalisierung eine besondere Herausforderung für die Entwicklung von Informationssystemen dar. Als Grundlage für die Implementierung von Informationssystemen dienen Informationssystem-Modelle, deren Erstellung mit Hilfe von Referenzmodellen entscheidend vereinfacht werden kann, da diese Expertenwissen in bereits modellierter Form repräsentieren. Der Autor zeigt die Grundlagen zur Konstruktion und Anwendung von objektorientierten Referenzmodellen auf und konkretisiert und operationalisiert den Anwendungsbereich des computergestützten Controlling. Auf der Basis der Unified Modeling Language (UML) konstruiert er Referenzmodelle für das Prozess- und Projektcontrolling und leistet damit einen wertvollen Beitrag für die Wiederverwendung von konzeptuellen objektorientierten Modellen bei der Erstellung von Controlling-Informationssystemen.
Comment:
1. GutachterIn: Prof. Dr. Heinz Lothar Grob Institution: Universität Münster 2. GutachterIn: Prof. Dr. Jörg Becker Institution: Hochschule / Forschungseinrichtung
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Implementierung der Balanced Scorecard: Grundlagen und IT-Fachkonzept
Wiese, Jens
Universität Münster (1999)
Abstract:
Entwicklung eines theoretisch fundierten Ansatzes, der das hierarchische Herunterbrechen der ursprünglich nur für das Top-Management ausgerichteten Balanced Scorecard ermöglicht.
Comment:
1. GutachterIn: Prof. Dr. Jörg Becker Institution: Universität Münster 2. GutachterIn: Prof. Dr. Heinz Lothar Grob Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Kommunikation von Innovationsbarrieren - Die interaktive Diagnose in telekooperativen Reorganisationsprozessen
Englberger, Hermann
Universität München (2000)
Abstract:
Schlagworte: Telekommunikation, Innovation, Reorganisation, Management, Informationswirtschaft
Comment:
1. GutachterIn: Prof. Dr. Dr. h.c. Ralf Reichwald Institution: Universität München 2. GutachterIn: Prof. Dr. Horst Wildemann Institution: Universität München
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Software-Wiederverwendung bei der Lösung von Planungsproblemen mittels Meta-Heuristiken
Fink, Andreas
TU Braunschweig (2000)
Abstract:
Es werden die Potentiale von Software-Wiederverwendung bei der Lösung von Planungsproblemen mittels Meta-Heuristiken untersucht. Ziel ist die Unterstützung des Technologietransfers entsprechender Verfahren im Hinblick auf die Behandlung betrieblicher Planungs- und Steuerungsprozesse. Im Rahmen einer Domänenanalyse werden Gemeinsamkeiten und Variationspunkte im Bereich Meta-Heuristiken identifiziert. Das entwickelte Modell ist die Basis für das Design und die Implementierung eines Frameworks. Im Mittelpunkt steht dabei die Abbildung der Beziehungen zwischen Meta-Heuristiken (Algorithmen) und Problemstellungen (Strukturen) auf Basis des generischen Programmierparadigmas. Es werden Wege für eine inkrementelle Anwendung des Frameworks aufgezeigt, die eine relativ einfache problemspezifische Adaption und damit praktische Nutzung der implementierten Software-Komponenten ermöglichen. Der entwickelte Lösungsansatz wird auf der Grundlage von sechs Fallstudien evaluiert.
Comment:
1. GutachterIn: Prof. Dr. Stefan Voß Institution: TU Braunschweig 2. GutachterIn: Prof. Dr. Thomas Spengler Institution: Hochschule / Forschungseinrichtung
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Virtuelle Praktika. Entwicklung und Erprobung eines Konzepts und Systems für internetbasierte Lehr-Lernprozesse, konkretisiert für eine Lehreinheit zur Konzeptionellen Datenmodellierung
Ems, Stefan
Universität Köln (2000)
Abstract:
1. GutachterIn: Prof. Dr. Dr. Ulrich Derigs Institution: Universität Köln 2. GutachterIn: Prof. Dr. Werner Mellis Institution: Universität Köln
Comment:
1. GutachterIn: Prof. Dr. Dr. Ulrich Derigs Institution: Universität Köln 2. GutachterIn: Prof. Dr. Werner Mellis Institution: Universität Köln
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Objektorientierte Softwarewiederverwendung für nationale und internationale Steuerbelastungsvergleiche
Gröschel, Michael
Universität Mannheim (2000)
Abstract:
Wissenschaftlich anerkannte Methoden für Steuerbelastungsvergleiche bedürfen regelmäßig einer Softwareunterstützung, damit sie rationell und fehlervermeidend durchgeführt werden können. Gleichwohl ist die Entwicklung von Softwaresystemen für dieses Anwendungsgebiet ein aufwändiger Vorgang, der wesentlich erleichtert werden kann, wenn Softwarewiederverwendung betrieben wird. Gegenstand der Arbeit ist die Auswahl geeigneter Ansätze der Wiederverwendung und die Bereitstellung entsprechender Software für verschiedene Methoden zur Durchführung von Steuerbelastungsvergleichen. Als ein wesentlicher Vorteil des zu Grunde gelegten Paradigmas der Objektorientierung wird die Unterstützung der Wiederverwendbarkeit gesehen. Die Bewertung von Ansätzen der objektorientierten Softwarewiederverwendung führt zum Ergebnis, dass für Veranlagungssimulationen zwar Entwurfsmuster entwickelt werden können, ...
Comment:
1. GutachterIn: Prof. Dr. Dr. h.c. mult. Otto H. Jacobs Institution: Universität Mannheim 2. GutachterIn: Prof. Dr. Hans-Jörg Hoitsch Institution: Universität Mannheim
edit comment | edit entry | edit Topics | edit Category | display Bibtex
KDD und Data Mining als Hilfsmittel zur Entscheidungsunterstützung
Säuberlich, Frank
Universität Karlsruhe (2000)
Abstract:
Mit der Entwicklung der Informationstechnologie haben sich in den vergangenen Jahren die Möglichkeiten, Daten zu erheben, zu generieren und auch zu speichern, entscheidend verbessert. Unternehmen sind damit in der Lage, Informationen zu wahrhaften Datengebirgen aufzutürmen. Die Analyse dieser riesigen Datenmengen ist für eine Erzielung von Wettbewerbsvorteilen unumgänglich. Unter den Begriffen Knowledge Discovery in Databases und Data Mining ist in den vergangenen Jahren eine Forschungsrichtung entstanden, die versucht, Verfahren zur Analyse dieser Datenbestände zur Verfügung zu stellen. Im Rahmen dieser Arbeit werden Ansätze vorgestellt, den Bereich KDD und Data Mining zu charakterisieren. Zwei der in diesem Bereich am zahlreichsten eingesetzten Verfahrensklassen, Entscheidungsbaumverfahren und Assoziationsregelalgorithmen, werden näher behandelt. Anhand von Problemstellungen aus dem Konsumentenverhalten wird der Einsatz von Data Mining-Verfahren auf Praxisfragestellungen verdeutlicht.
Comment:
1. GutachterIn: Prof. Dr. Wolfgang Gaul Institution: Universität Karlsruhe 2. GutachterIn: Prof. Dr. Rudi Studer Institution: Universität Karlsruhe
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Tool Support for the Distribution of Object-Based Applications
Radermacher, Ansgar
RWTH Aachen (2000)
Abstract:
The development of a distributed application is hard compared to the development of a monolithic program. The developer has to cope with network programming and the possibility of failures. There are tools that alleviate the task of the developer. They offer a suitable abstraction of the communication between two disjoint program parts that is close to the typical means of exchanging information in an imperative programming language: a procedure call or a method invocation. These techniques are called middleware because they bridge the abstraction of the operating systems API with that of the programming language. Well-known middleware techniques comprise the OMG standard CORBA, Microsoft’s DCOM and Java’s RMI. The use of such techniques eases the development of a distributed application considerably. However, there are deficiencies: Middleware-specific code can not be isolated in a single module, it is spread throughout the application code. This makes it difficult to adapt the program to another middleware or a new distribution structure. Middleware has certain restrictions; it is for example not possible to instantiate an object in a remote address space. The developer has to ensure that an object is created in the intended address space. There is no visual specification of the distribution structure. In order to overcome these problems we study additional tools on top of the middleware that allow for the specification of the distribution structure and the components inside a distributed systems. But almost all of these approaches use a particular language for specifying the components that form the distributed application. The properties of such a language prevent the violation of prerequisites of the middleware for all possible distribution structures, for example by restricting communication to an exchange of messages. This limits the use of these a-priori approaches: they could not be applied, if a program is already existent in a “conventional” programming language. The a-posteriori distribution of an existing program is not captured by these approaches with the exception of general CASE tools offering minimal distribution support (for example the generation of a CORBA interface definition). In order to achieve conformance with middleware prerequisites, an existing program has to be restructured in a suitable way. The approach in this thesis is based on the enrichment of a class diagram with distribution information. This information has to be supplied by a developer. An algorithm employs this information and checks whether distribution prerequisites are violated. The developer can now either reconsider the distribution structure or transform the application according to predefined transformation rules. An example is a rule that inserts on object to which instantiation request could be delegated. This object is called a factory. A side effect of the transformation is the conformance to certain design rules, also called design patterns. The implementation of our approach employs the internal representation of the class diagram as a graph. Graph tests find places in a graph that conform to the given subgraph pattern. Graph rewrite rules transform a graph by replacing the subgraph given in the left-hand side of the rule with the subgraph specified in the right-hand side. The graph rewrite rule is accompanied by a source code transformation implemented in Java. A prototype that is able to execute the graph rewrite rules can be generated from a specification by means of the programmed graph rewriting system PROGRES.
Comment:
1. GutachterIn: Prof. Dr.-Ing. Manfred Nagl Institution: RWTH Aachen 2. GutachterIn: Prof. Dr. rer. nat. Andreas Schürr Institution: TU Darmstadt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Electronic Contracting im elektronischen Handel - Das Beispiel der amerikanischen Versicherungsbranche
Runge, Alexander
Universität St. Gallen (2000)
Abstract:
Im elektronischen Handel sind seit Jahren Angebote in elektronischen Produktkatalogen in rasch wachsender Zahl verfügbar. Auch das elektronische Bezahlen ist inzwischen auf recht sichere Weise möglich. Jedoch bleibt als eigentliche und noch fehlende Verbindung zwischen elektronischen Produktkatalogen und Abwicklungssystemen, wie elektronischen Zahlungssystemen, der elektronische Kontrakt. Das Thema ist von großer Relevanz und erstreckt sich über mehrere Disziplinen. Nicht nur aufgrund der erwähnten und zu schließenden Lücke bekommen elektronische Kontrakte eine große Bedeutung, sondern auch aufgrund der momentanen rechtlichen Unsicherheit im Internet. Elektronische Kontrakte müssen u. a. rechtlich verbindlich sein, nicht nur, um bei Anwendern Vertrauenswürdigkeit in die Handhabung elektronischer Transaktionen zu erzeugen. Dies bedeutet, dass neuere Technologien zur Umsetzung elektronischer Kontrakte und sicherheitstechnischer Grundlagen rechtliche Anerkennung erlangen müssen.
Comment:
1. GutachterIn: Prof. Dr. Beat Schmid Institution: Universität St. Gallen 2. GutachterIn: Prof. Dr. Kurt Bauknecht Institution: Universität Zürich
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Prozessorientierte Konfiguration komponentenbasierter Anwendungssysteme
Ritter, Jörg
Universität Oldenburg (2000)
Abstract:
Betriebliche Anwendungssysteme basieren heute vornehmlich auf monolithischen Standardsoftwareprodukten. Es ist jedoch absehbar, dass diese Systeme zugunsten flexiblerer Lösungen aufgebrochen werden. Dazu werden sich Standards etablieren, die es Herstellern ermöglichen werden, ihre Speziallösungen als Komponenten in Rahmenwerke anderer Softwarehersteller einzubinden. Um der aus der flexibleren Kombinierbarkeit unabhängiger Softwarelösungen resultierenden Komplexität der Anwendungsentwicklung entgegen zu wirken, werden in dieser Arbeit Methoden und Werkzeuge entwickelt, die den Anwender bei Auswahl, Konfiguration und Einsatz betriebl. Softwarekomponenten unterstützen sollen. Grundlegende Idee ist es, die bekannten Ansätze, monolithische Softwareprodukte durch Softwarereferenzmodelle zu beschreiben, auf die in Zukunft vermehrt anzutreffenden komponentenbasierten Softwareprodukte zu übertragen.
Comment:
1. GutachterIn: Prof. Dr. Hans-Jürgen Appelrath Institution: Universität Oldenburg 2. GutachterIn: Prof. Dr. Stephanie Teufel Institution: Universität Fribourg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Web Log Mining als Instrument der Marketingforschung in internetbasierten Märkten - Ein systemgestaltender Ansatz
Bensberg, Frank
Universität Münster (2000)
Abstract:
Die Dissertation liefert einen systemgestaltenden Lösungsansatz zur Marketingforschung in internetbasierten Märkten, bei dem indirekte Datengewinnungsinstrumente in Bezug auf ihre inhaltlichen und formalen Eigenschaften untersucht und genutzt werden. Als Bezugsrahmen für eine methodologisch und informationstechnologisch fundierte Systemgestaltung werden die Theoriefelder des Knowledge Discovery in Databases (KDD) und Data Mining zugrunde gelegt. Durch Adaption dieser Theoriefelder an die Erfordernisse der Marketingforschung in internetbasierten Märkten wird das Konzept des Web Log Mining konstituiert, das durch existierende Analysesysteme derzeit allerdings nur unzureichend unterstützt wird. Diese Erkenntnis motiviert die Entwicklung des Softwaresystems AutoGen, welches durch formale Modellierungssprachen dokumentiert wird. Der anwendungsbezogene Nutzen dieses Systems wird auf der Grundlage von konsumentenbezogenen Realdaten eines internetbasierten Marktsystems evaluiert.
Comment:
1. GutachterIn: Prof. Dr. Heinz Lothar Grob Institution: Universität Münster 2. GutachterIn: Prof. Dr. Dr. h. c. mult. Heribert Meffert Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Informationsmodellbasierte Organisationsgestaltung. Modellierungskon-ventionen und Referenzvorgehensmodell zur prozessorientierten Reorganisation
Kugeler, Martin
Universität Münster (2000)
Abstract:
Die prozessorientierte Organisationsgestaltung und das kontinuierliche Prozessmanagement sind für viele Unternehmen die geeigneten Maßnahmen, um auf die veränderten Marktbedingungen effektiv und effizient zu reagieren. Die prozessorientierte Reorganisation benötigt ein ganzheitliches Konzept, in dem die methodischen Erkenntnisse der Organisationstheorie und der Wirtschaftsinformatik integriert werden. Basis für eine Ausrichtung der Organisationsstruktur an den Prozessen ist die geeignete Darstellung der betrieblichen Abläufe anhand von Informationsmodellen. Daher werden umfassende und operationalisierte Modellierungskonventionen für den Einsatzzweck der Organisationsgestaltung entwickelt, die auf den allgemeinen Grundsätzen ordnungsmäßiger Modellierung (GoM) basieren. Darüber hinaus wird ein wohlstrukturiertes Referenz-vorgehensmodell entworfen. Darin werden die einzelnen Phasen von der Strategiefindung bis zur dokumentierten und implementierbaren Organisationsstruktur beschrieben.
Comment:
1. GutachterIn: Prof. Dr. Jörg Becker Institution: Universität Münster 2. GutachterIn: Prof. Dr. Gerhard Schewe Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Flexible Access Concepts for Distributed Information Systems
Pritsch, Elmar
RWTH Aachen (2000)
Abstract:
After the rapidly growing penetration of personal computers in offices and households during the last decade, both mobile telephony and the Internet represent current key technologies. At the same time, the desire for extended and flexible data access in the context of enterprise-wide information systems is increasing. Facing this background, the application system called PERFORMIS (Performance Management Information System) delineates a prototype of an enterprise-wide management information system for the development of large software. It realizes a flexible data access concept using heterogeneous and distributed enterprise data sources. User-defined performance indicators can be instantly accessed or used to compose reports, which describe the current status of development projects. In a first step, the heterogeneous data of the worldwide distributed mainframe data sources are summarized in a local database, which can be accessed through Intranet technology. Here, the challenge lies in the transformation of heterogeneous data into the homogeneous context of the PERFORMIS data base. As next step, management tools and defined contents are introduced, which enable an access to the local PERFORMIS server. A special focus is placed on the flexible composition of reports and graphics, incorporating condensed data of the underlying Management Information System. In addition, mobile data access concepts allow the user to efficiently use familiar information services which are independent of the transmission technology. For this purpose, tools for creating and maintaining user profiles are needed in order to reflect the users’ preferences when transmitting information over the limited bandwidth of the air interface. Finally, a performance evaluation based on simulations demonstrates the efficiency of the developed system.
Comment:
1. GutachterIn: Prof. Dr.-Ing. Manfred Nagl Institution: RWTH Aachen 2. GutachterIn: Prof. Dr. rer. Otto Spaniol Institution: RWTH Aachen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Information technology in supplier networks: a theoretical approach to decisions about information technology and supplier relationships
Weber, Sascha
Universität Frankfurt a.M. (2000)
Abstract:
The objective of this thesis is to analyze and answer the question of how the exploitation of an expected progress in information technology influences the supplier relationships of an organization. We show that under certain conditions progress in information technology leads to unstable phases of a supplier relationship, which comes about through frequent changes in transaction partners and short contract durations. In particular we show that information technology used to support the evaluation of potential transaction partners can considerably contribute to the instability of a supplier relationship, while this is not true for information technology used to support the execution of a transaction.
Comment:
1. GutachterIn: Prof. Dr. Wolfgang König Institution: Universität Frankfurt a.M. 2. GutachterIn: Prof. Dr. Gerriet Müller Institution: Universität Frankfurt a.M. 3. GutachterIn: Prof. Dr. Eberhard Feess Institution: Universität Frankfurt a.M.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Architecture Modeling of Distributed and Concurrent Software Systems
Klein, Peter
RWTH Aachen (2000)
Abstract:
This dissertation is devoted to the topic of architecture modelling for software systems. The architecture describes the structural composition of a system from components and relationships between these components. Thereby, it provides a basis for the system’s realization on technical as well as on organizational level. In order to define a conceptual frame and a suitable vocabulary for this working area, we present the architecture description language MoDeL (Modular Design Language). By selecting and combining modelling concepts which proved to be helpful for the design of software systems, this approach is integrative and pragmatic: It unites different realization paradigms (structured, object-oriented), different levels of granularity (overall system, subsystem, modules, types and operations), different kinds of abstractions (functional/data, types/objects etc.) without falling into a loose collection of diagram languages. Considering an architecture as a construction plan in a cooperative, creative, and dynamic software development process, the necessity arises to allow flexible adaptations with respect to given constraints, e.g. performance, interaction with legacy systems, integration of external (sub-)systems, distribution in a network etc. On one hand, a clean structure is required to make the architecture in itself and its parts understandable, robust, maintainable, and reusable. On the other hand, it has to be dealt with that a realistic software development process may need divergence from the desired structure. A fundamental notion in this dissertation therefore is to consider a clean logical architecture as well as concrete architectures reflecting respective modifications as individual results of architecture modelling. Furthermore, transformation steps describing the changes induced by a particular realization constraint contain valuable modelling knowledge as well. If possible, this knowledge should be formalized to make it reusable. A second basic aspect results from the proposition to separate the working areas of architecture modelling and of implementation, i.e. not to anticipate the steps during component development (selection of data structures, algorithms etc.) on architecture level. However, this cannot be avoided altogether as an architecture constrains the choice of possible realizations, e.g. by supplying certain underlying services. In order to allow the architect precise explanations of the static structure without giving up the distinction between architecture and realization, our approach supports the annotation of dynamic runtime behavior as well as static component semantics within certain limits. In sum, we distinguish a separation in two dimensions, namely logical and concrete level on one hand and static and dynamic level on the other. These are described by respective sublanguages of the MoDeL language. From the broad range of adaptation steps towards a concrete architecture, we particularly focus on the specification of concurrency and distribution. This requires some new language concepts for fixing control flows, synchronization schemes etc. in the architecture. Apart from the presentation of MoDeL and its sublanguages, this dissertation contains two case studies. These demonstrate the use of the language in different situations, but they also contribute to the discussion of “reference architectures”. Firstly, we present the detailed architecture of a software development environment which was developed in connection with the MoDeL language. This environment, the Analysis and Development Tool adt, is based on the experiences of the IPSEN project and supports the creation of MoDeL specifications. These specifications can be kept consistent with the source text by fine-grained incremental propagation of changes from the architecture specification into source code files and vice versa. Additionally, the environment is open for the embedding of external tools, noticeably for programming activities (editor, compiler, debugger etc.). This facilitates an architecture-centered software development process by supporting design and realization under a consistent structural view. The second architecture was developed in the course of the collaborative research center 476 “IMPROVE”. This project aims at the improvement of the information technology support of development processes in the application area of process engineering. A prototype of an integrated development environment has been implemented which extends existing development tools with new functionality, thereby enhancing single development steps as well as coordination and cooperation in the overall development process. While the adt prototype allows for a detailed discussion of logical architecture concepts, the focus of the CRC prototype is the general design under consideration of constraints. Particularly, the a-posteriori integration of existing development tools for process engineering by new information technology concepts is discussed.
Comment:
1. GutachterIn: Prof. Dr.-Ing. Manfred Nagl Institution: RWTH Aachen 2. GutachterIn: Prof. Dr. rer. nat. Claus Lewerentz Institution: Technische Universität Cottbus
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Strategien betrieblicher Informatisierung und die Diffusion von ISDN
Weißbach, Rüdiger
TU Berlin (2000)
Abstract:
Am Beispiel ISDN wurde gezeigt, dass normative Ansätze in der Forschung zu Informatisierungsstrategien und der IT-Diffusion zu statisch und verallgemeinernd sind und aus diesem Grund zu kurz greifen. Um die realen Anlässe und Prozesse bei Implementierung und Diffusion von IT zu analysieren, muß wesentlich stärker als bisher auf organisationsindividuelle und gruppenbezogene Faktoren eingegangen werden. Dabei ist der Implementierungsprozess nicht homogen, sondern weist in seinem Verlauf zahlreiche situative Einflüsse auf, die oft durch organisationsinterne und -externe Zufälligkeiten entstehen. Eine vergleichsweise universelle Technik wie ISDN kann unproblematisch in verschiedene, auch konträre Strategien eingebettet werden, wie die Untersuchung der ca. 90 Fallbeispiele (teils als eigene Befragung, teils als Literaturstudie über einen längeren Zeitraum) zeigte.
Comment:
1. GutachterIn: Prof. Dr. Gernot Wersig Institution: FU Berlin 2. GutachterIn: Prof. Dr. Axel Zerdick Institution: FU Berlin
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Object Warehouse - Konzeption der Basis objektorientierter Management Support Systems am Beispiel von Smalltalk und dem ERP Baan
Von Maur, Eitel
Universität Osnabrück (2000)
Abstract:
Die Arbeit untersucht die Realisierungsmöglichkeiten der Potenziale des objektorientierten Paradigmas im Bereich der Management Support Systems (MSS). Die Untersuchung konzentriert sich dabei auf die grundlegende Datenhaltungskomponente, das Data Warehouse (DWH) respektive Object Warehouse.
Comment:
1. GutachterIn: Prof. Dr. Bodo Rieger Institution: Uni Osnabrück 2. GutachterIn: Prof. Dr. Uwe Hoppe Institution: Uni Osnabrück
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Monitoring von verteilten Systemen
Kurschl, Werner
Universität Linz (2000)
Abstract:
Die Arbeit behandelt ein aktuelles Teilgebiet der Informaik. Der Entwurf, die Implementierung, der Betrieb und die Überwachung von verteilten Systemen gewinnen, begünstigt durch technologische Fortschritte im Bereich der Rechnervernetzung, zunehmend an Bedeutung. Die Entwicklung komplexer verteilter Systeme ist ein schwieriger Prozess, in dem man neben den typischen softwaretechnischen Problemstellungen noch mit der Problematik der Verteilung von Prozessen, der Parallelisierung von Verarbeitungsschritten, der asynchronen Ereignisverarbeitung etc. konfrontiert ist. Die heute bekannten Methoden und Werkzeuge unterstützen den Entwicklungsprozess von verteilten Systemen nur ungenügend. Es ist das Verdienst des Verfassers, durch die Konzeption und prototypische Implementierung eines Monitoringsystems - der Verfasser nennt es Orwell - einen wertvollen Beitrag zur Verbesserung der Entwicklung von verteilten Systemen geleistet zu haben.
Comment:
1. GutachterIn: Prof. Dr. Gustav Pomberger Institution: Universität Linz 2. GutachterIn: Prof. Dr. Gerti Kappel Institution: Universität Linz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Design Patterns for Process Automation Systems
Narzt, Wolfgang
Universität Linz (2000)
Abstract:
Die Arbeit behandelt ein Teilgebiet der Softwaretechnik, nämlich die Weiterentwicklung von Grundprinzipien zur Gestaltung der Architektur von Softwaresystemen. Der Verfasser konzentrierte sich dabei auf die Entwicklung von Entwurfsmustern - sogenannte Design Pattern - für den Bereich der Entwicklung von Prozessautomatisierungssystemen. Für die Domäne der Prozessautomatisierungssysteme wurden fünf typische Muster identifiziert und dafür, sowohl aus theoretischer als auch praktischer Sicht, interessante Lösungsansätze entwickelt.
Comment:
1. GutachterIn: Prof. Dr. Hanspeter Mössenböck Institution: Universität Linz 2. GutachterIn: Prof. Dr. Gustav Pomberger Institution: Universität Linz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entwicklungsmethoden und Architekturkonzepte für Web-Applikationen unter besonderer Berücksichtigung von Systemen zur Erstellung und Administration Web-basierter Lernumgebungen
Schellhase, Jörg
Universität Kassel (2000)
Abstract:
In der Dissertation werden Entwicklungsmethoden und Architekturen für Web-Applikationen dargestellt und analysiert. Zunächst werden allgemeine Grundlagen aus dem Bereich der Hypertext-Theorie sowie technologische Grundlagen des WWW vermittelt. Anschließend werden mehrere Entwicklungs- und Modellierungsmethoden für Web-Applikationen einander gegenübergestellt. Des Weiteren werden verschiedene Kategorien von Web-Applikationen sowie von Systemen zur Bereitstellung und Pflege von Web-Applikationen theoretisch erörtert. So dann wird eine eigene Architektur für eine Web-basierte Lernumgebung vorgestellt sowie ein effizienter Produktionsprozess zur Realisierung der Web-basierten Lernumgebung konzipiert und realisiert. Ein wesentlicher Bestandteil des Produktionsprozesses ist ein vom Autor entwickeltes Tool, der sogenannte Virtual Learning Environment Generator, mit dem die zuvor beschriebenen Web-basierten Lernumgebungen erstellt und gepflegt werden.
Comment:
1. GutachterIn: Prof. Dr. Udo Winand Institution: Universität Kassel 2. GutachterIn: Prof. Dr. Dieter Wloka Institution: Universität Kassel
edit comment | edit entry | edit Topics | edit Category | display Bibtex
The Economics of an Integrated Services Internet
Rupp, Björn
Universität Berlin (2000)
Abstract:
This thesis advocates the use of economic concepts to approach the fundamental issues associated with the introduction of an Integrated Services Internet: Resource allocation and valuation. On the supply side, the thesis takes a look at several roles that pricing can play for efficient allocation of network resources, and at the theory and practice of network interconnection. It proposes an automated bandwidth exchange for complex environments with multiple players and quality-differentiated network resources. On the demand side, the thesis analyzes demand for a quality-differentiated Internet by presenting results from the Internet Demand Experiment (INDEX), the first empirical study to measure demand for quality-differentiated Internet access.
Comment:
1. GutachterIn: Prof. Ph.D. Oliver Günther Institution: Humboldt-Universität zu Berlin 2. GutachterIn: Prof. Ph.D. Pravin Varaiya Institution: University of California
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Beschaffung mittels internetbasierter Produktkataloge
Wilking, Georg
Universität Duisburg-Essen (2000)
Abstract:
Georg Wilking untersucht Gestaltung und Aufbau von Beschaffungsprozessen, die anhand von elektronischen Produktkatalogen durchgeführt werden, und zeigt deren Schwachpunkte und Potenziale aus betriebswirtschaftlicher und informationstechnischer Perspektive auf. Das Internet ermöglicht neue Formen der betrieblichen Beschaffung, die gegenwärtig unter dem Stichwort des E-Procurement in Unternehmen, aber auch in der Wissenschaft diskutiert werden. Industrieprojekte, die eine Einführung der internetbasierten Beschaffung zum Gegenstand haben, führen häufig zu erheblichen Effizienzsteigerungen. Auf dieser Basis leitet der Autor konkrete Prozessinnovationen ab und stellt wesentliche Grundzüge der benötigten Funktionalität vor.
Comment:
1. GutachterIn: Prof. Dr. Walther Brenner Institution: Universität Essen 2. GutachterIn: Prof. Dr. Stefan Eicker Institution: Universität Essen 3. GutachterIn: Prof. Dr. Werner Gaab Institution: Universität Essen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Struktur und Effizienz elektronischer Märkte - Ein Ansatz zur Referenzmodellierung und Bewertung elektronischer Marktgemeinschaften und Marktdienste
Lindemann, Markus A.
Universität St. Gallen (2000)
Abstract:
Diese Arbeit entwickelt ein Referenzmodell für das Design, die Implementation und den Betrieb elektronischer Märkte. Das Referenzmodell Elektronischer Märkte wird im Kontext der Markttheorien und Finanzmärkte - deren Elektronisierung weit fortgeschritten ist - fundiert. Die vier identifizierten Modellierungsebenen betreffen die Marktgemeinschaft, Geschäftsprozesse, Marktdienste und Infrastrukturen, denen die Maße Allokations-, Bewertungs-, Informations- und Betriebseffizienz gegenüberstehen. Die Erkenntnisse zur Struktur und Effizienz elektronischer Märkte werden abschließend mittels einer empirischen Analyse vier unterschiedlicher Marktformen überprüft: PriceSCAN.com (Direktsuchmarkt), NetMarket.com (Maklermarkt), BottomDollar.com (Händlermarkt) und eBay.com (Auktionsmarkt).
Comment:
1. GutachterIn: Prof. Dr. Beat Schmid Institution: Universität St. Gallen 2. GutachterIn: Prof. Dr. Stefan Klein Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Wissensmanagement in der Projektabwicklung - Grundlagen, Determinanten und Gestaltungskonzepte eines ganzheitlichen Wissensmanagements
Schindler, Martin
Universität St. Gallen (2000)
Abstract:
In der Arbeit, die durch Zugrundelegung eines Aktionsforschungsansatzes eine hohe Praxisrelevanz aufweist, werden zunächst die relevanten Determinanten eines ganzheitlichen Projektwissensmanagements identifiziert. Für das zielgerichtete und ganzheitliche Management der Ressource Wissen bedarf es der Einbeziehung der Faktoren Organisation, Informations- und Kommunikationsmanagement sowie Human Resource Management. Darauf aufbauend werden Maßnahmen zur besseren Nutzung der Potenziale, die das Wissensmanagement projektorientierten Unternehmen wahrzunehmen eröffnet vorgestellt. Die Ausführungen sind durch den Einbezug von vier Fallstudien und zahlreichen Fallbeispielen international angesehener Unternehmen wie Bankgesellschaft Berlin, DaimlerChrysler, Pixelpark, Schindler Aufzüge in denen die Massnahmen zum Teil umgesetzt wurden, angereichert.
Comment:
1. GutachterIn: Prof. Dr. Beat Schmid Institution: Universität St. Gallen 2. GutachterIn: Prof. Dr. Roman Boutellier Institution: Universität St. Gallen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
AVALANCHE - Ein agentenbasierter dezentraler Koordinationsmechanismus für elektronische Märkte
Eymann, Torsten
Universität Freiburg (2000)
Abstract:
Ziel der Dissertation ist es, einen dezentralen Koordinationsmechanismus für elektronische Märkte zu entwickeln, welcher es autonom handelnden Softwareagenten ermöglicht, planmäßig eine nutzenverbessernde Ressourcenallokation anzustreben. AVALANCHE ist eine prototypische Implementation eines solchen Mechanismus und zeigt dessen Leistungsfähigkeit anhand der Koordination einer Wertschöpfungskette. Die Koordination auf den verketteten Märkten ergibt eine 'spontane Ordnung' von Angebot und Nachfrage, obwohl auf der Systemebene keine steuernden Regeln definiert wurden. Die gewählte Realisierung des Koordinationsmechanismus kann im Sinne der Wirtschaftsinformatik als Gestaltungsoption für die Koordination von Systemen eigennütziger Agenten verstanden werden. Andererseits ist AVALANCHE nicht nur ein weiterer elektronischer Marktplatz, sondern auch zur experimentellen Untersuchung und Simulation unterschiedlicher Koordinationsprobleme in den Wirtschaftswissenschaften einsetzbar.
Comment:
1. GutachterIn: Prof. Dr. Günter Müller Institution: Universität Freiburg 2. GutachterIn: Prof. Dr. Schober Franz Institution: Universität Freiburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Beiträge zur Verwendung der Framework-Technologie bei der Entwicklung und Einführung von Systemen der betrieblichen Informationsverarbeitung
Schmitzer, Benno
Universität Augsburg (2000)
Abstract:
Die Arbeit leistet einen Beitrag zur Akzeptanz von betriebswirtschaftlich orientierten Frameworks bei der Entwicklung von betrieblichen Informationssystemen nach dem Komponentengedanken. Es werden ausgewählte Umsetzungsmöglichkeiten für Software-Zwischenformen beschrieben. Bei einer Marktbetrachtung werden ein Framework-Hersteller herausgegriffen und sein Markteintritt sowie seine Strategien, Referenzkunden usw. analysiert. Es werden strategische, architektonische und prozessuale Aspekte eines betriebswirtschaftlich orientierten Frameworks beschrieben und gruppiert. Aus Experimenten werden Erfahrungen zu verschiedenen, speziell im Framework-Bereich auftretenden Szenarien gewonnen.
Comment:
1. GutachterIn: Prof. Dr. Dr. h.c. mult. Peter Mertens Institution: Universität Augsburg 2. GutachterIn: Prof. Dr. Hans Jürgen Schneider Institution:
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Geschäftsprozessmanagement - Eine Konzeption zur prozessorientierten Unternehmens-(Re-)Organisation
Stapf, Wolfgang
Universität Stuttgart (2000)
Abstract:
Das Ziel der Dissertation ist eine integrierte Konzeption zur prozessorientierten Unternehmens-(Re-)Organisation. Ausgangspunkt bildet hierzu ein Geschäftsprozessmodell aus Zielen, Geschäftsobjekten, Rollen, Regeln und Ressourcen, die über einen Ablauf miteinander verknüpft sind („Geschäftsprozesspyramide“). Darauf aufbauend ist ein durchgängiges Vorgehensmodell konzipiert, das – basierend auf Wissensmanagement – sowohl das Management des (r)evolutionären Geschäftsprozesswandels als auch der Geschäftsprozessausführung repräsentiert („Geschäftsprozess-Lebenszyklus“). In Form einer Web-basierten Systemarchitektur werden alle zur Unterstützung von Geschäfts-prozessmanagement notwendigen Informations- und Kommunikations-Systemkomponenten sowie ihr Zusammenspiel aufgezeigt. Eine prinzipielle Vorgehensweise für die Einführung von Geschäftsprozessmanagement, die die Transformation eines „traditionellen Unter-nehmens“ in ein geschäftsprozesszentriertes Unternehmen beleuchtet, schließt die Konzeption ab.
Comment:
1. GutachterIn: Prof. Dr. Heidi Heilmann Institution: Universität Stuttgart 2. GutachterIn: Prof. Dr. Hans Dietmar Bürgel Institution: Hochschule / Forschungseinrichtung
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modellierung zeitbezogener Daten im Data Warehouse
Stock, Steffen
Universität Duisburg-Essen (2000)
Abstract:
Ein Data Warehouse ist in der betrieblichen Praxis häufigen Änderungen unterworfen. Einerseits kann sich die Dimensionsstruktur im Zeitablauf ändern, andererseits erweist sich der Informationsbedarf eines Entscheidungsträgers häufig als unstetig und dynamisch. Bei einer nachträglichen Beurteilung von Entscheidungssituationen ist jedoch die zum Entscheidungszeitpunkt vorherrschende Informationslage von elementarer Bedeutung. Steffen Stock erweitert das Data-Warehouse-Konzept um das Konzept der zeitbezogenen Daten, damit die zu jedem Zeitpunkt verfügbaren Daten und Klassifikationshierarchien dauerhaft gespeichert werden können. Hierzu führt der Autor eine Gültigkeitszeitmatrix ein, die eine Vergleichbarkeit der Fakten auch nach Änderungen der Klassifikationshierarchien ermöglicht. Durch diese Erweiterungen können im Zeitablauf auftretende betriebswirtschaftlich bedingte Strukturänderungen modelliert werden.
Comment:
1. GutachterIn: Prof. Dr. Peter Chamoni Institution: Universität Duisburg 2. GutachterIn: Prof. Dr. Bernd Rolfes Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Lernprozesse in Organisationen
Nothhelfer, Robert
Universität Freiburg (2000)
Abstract:
Das Buch betrachtet systematisch die Lernprozesse, die in einer Organisation stattfinden. Ausgehend von einem evolutionären Modell der Organisation wird ein Strukturmodell entwickelt, das eine umfassende Systematisierung von Lernprozessen ermöglicht; dabei werden mehrere Lernformen (individuelles/soziales Lernen und Veränderungs-/Anpassungslernen) sowie drei Lernebenen (Individuum/Gruppe/Organisation) unterschieden. Auf der Basis dieses Modells wird die aktuelle Management-Literatur zur Gestaltung von Lernprozessen diskutiert, und die Eignung der vorgeschlagenen Maßnahmen untersucht. Besondere Bedeutung kommt dabei dem Führungsverhalten sowie der Information und Kommunikation in der Organisation und deren technischen Unterstützung zu. In der abschließenden Fallstudie werden zwei exemplarische Lernprozesse einer Wirtschaftsprüfungsgesellschaft auf ihre strukturellen Charakteristika hin untersucht und verglichen.
Comment:
1. GutachterIn: Prof. Dr. Franz Schober Institution: Universität Freiburg 2. GutachterIn: Prof. Dr. Bernd Schauenberg Institution: Universität Freiburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Logistik in digitalen Geschäftsmedien: Modelle für einen Logistics Service Provider im Kontext des Electronic Business
Hoffmann, Christoph
Universität St. Gallen (2001)
Abstract:
In der vorliegenden Dissertation ist es das Hauptziel, die Auswirkungen des Electronic Business auf die Logistikbranche zu analysieren und Potenziale anhand von verschiedenen Szenarien für einen Logistics Service Provider (LSP) zu entwickeln. Dabei steht die folgende Kernfrage im Vordergrund: Wie soll ein intermodaler Logistics Service Provider im Kontext des Electronic Business konzipiert sein und welche Entwicklungsmöglichkeiten können identifiziert werden? In der Arbeit werden Grundlagen, Faktoren und Ideen für ein Betreiberkonzept eines intermodalen LSP auf Elektronischen Märkten erarbeitet. Das Konzept soll eine spontane und anonyme Aufnahme und Durchführung der Geschäftstätigkeit für Logistikdienstleistungen erlauben.
Comment:
1. GutachterIn: Prof. Dr. Beat Schmid Institution: Universität St. Gallen, Schweiz 2. GutachterIn: Prof. Dr. Roman Boutellier Institution: Universität St. Gallen, Schweiz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Flexible Produktionsfeinplanung mit Hilfe von Planungsschritten – Ein Planungsansatz zum Umgang mit Störungen bei der Produktion
Patig, Susanne
Universität Magdeburg (2001)
Abstract:
Die flexible Produktionsfeinplanung mit Hilfe von Planungsschritten ist ein Planungsansatz, der Planänderungen beim Auftreten von Störungen während der Produktion vermeidet. Von den Strategien des Störungsmanagements und den existierenden Implementierungen aus-gehend, wird die Notwendigkeit eines neuen Planungsansatzes begründet. Die daraus resul-tierende flexible Produktionsfeinplanung mit Hilfe von Planungsschritten entwickelt die Idee der opportunistischen Terminierung weiter und setzt für die Repräsentation von Planungs-problemen und Plänen sowie für die Plandurchführung Prinzipien aus Planungsansätzen der Künstlichen Intelligenz ein. Das zugrunde liegende Flexibilitätsverständnis wird hergeleitet. Der entwickelte Planungsansatz wurde in einer mehrsortigen Prädikatenlogik mit erweiterter Semantik spezifiziert und in ANSI C implementiert. Seine Anwendung auf Testszenarien wird erläutert.
Comment:
1. GutachterIn: Prof. Dr. Claus Rautenstrauch Institution: Universität Magdeburg 2. GutachterIn: Prof. Dr. Gunter Saake Institution: Universität Magdeburg 3. GutachterIn: Prof. Dr. Stephan Zelewski Institution: Universität Essen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Planung und Steuerung industrieller Demontageprozesse mit PPS-Systemen
Huber, Alexander
Universität Magdeburg (2001)
Abstract:
In der Dissertation wird ein Fachkonzept zur Demontageplanung und -steuerung (DPS) vorgestellt, das durch systematische, marktorientierte Planung und Steuerung eine Erhöhung der Wirtschaftlichkeit von Demontageprozessen erlaubt. Dabei wird ein konventionelles PPS-Konzept (MRP II) entsprechend demontageinduzierter Anforderungen angepasst. Wesentliche Komponenten sind die Überführung unscharfer und unsicherer Daten in quasi-deterministische Daten (z. B. mithilfe von Fuzzy-Logik, linearer Optimierung), Aufbau einer robusten Planung und eines antizipativen Störungsmanagements sowie die Erweiterung, Ergänzung und Modifikation von Funktionen bzw. Datenstrukturen. In einer abschließend durchgeführten Fallstudie wird das erarbeitete DPS-Konzept validiert. Der systemspezifisch notwendige Anpassungsbedarf wurde auf Basis einer betriebswirtschaftlichen Standardsoftware zur Produktionsplanung und -steuerung (SAP R/3) systematisiert und qualitativ evaluiert.
Comment:
1. GutachterIn: Prof. Dr. Claus Rautenstrauch Institution: Universität Magdeburg 2. GutachterIn: Prof. Dr. Michael Schenk Institution: Universität Magdeburg 3. GutachterIn: Prof. Dr. Alfred Taudes Institution: Wirtschaftsuniversität Wien
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Visualisierung quantitativer Markterfolgsdaten - Möglichkeiten und Grenzen der automatisierten Erstellung von Präsentationen im Marktforschungsbereich
Christ, Volko
Universität Erlangen-Nürnberg (2001)
Abstract:
Die Arbeit beschreibt den Versuch, die Erstellung von Präsentationen über quantitative Markterfolgsdaten zu automatisieren. Dabei besteht das Hauptproblem darin, die interessantesten Daten schnell und angemessen zu visualisieren. In Hinblick auf dieses Ziel entwickelt die Arbeit theoriegeleitet das System COBRAS, welches in Kooperation mit dem Marktforschungsinstitut GfK realisiert wurde und inzwischen die dortigen Marktforscher bei der Präsentationsvorbereitung unterstützt. So werden neben der Konzeption auch Aspekte der Implementierung und der praktischen Evaluation beschrieben. Es zeigt sich, dass man über den Einsatz von COBRAS mit weniger Aufwand an Zeit und Personal zu qualitativ verbesserten Präsentationen gelangt, die darüber hinaus kundenindividuell konfigurierbar sind. Insgesamt belegt die Arbeit beispielhaft, wie die Wirtschaftsinformatik dazu beitragen kann, Produkte der Dienstleistungsbranche zu automatisieren und die Endprodukte zudem benutzerindividuell auszugestalten.
Comment:
1. GutachterIn: Prof. Dr. Dr. h. c. mult. Peter Mertens Institution: Universität Erlangen-Nürnberg 2. GutachterIn: Prof. Dr. Günter Buttler Institution: Universität Erlangen-Nürnberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Agentenbasierte Informationserschließung im World Wide Web unter Einsatz von Künstlichen Neuronalen Netzen und Fuzzy-Logik
Teuteberg, Frank
Universität Frankfurt/Oder (2001)
Abstract:
Mit dem World Wide Web (WWW) steht dem interessierten Nutzer eine fast unerschöpfliche Quelle für Informationen zur Verfügung. Die gezielte Suche nach den „richtigen“ Informationen ist jedoch eine schwierige Angelegenheit. In dieser Arbeit wird untersucht, welchen grundsätzlichen Beitrag die von Zadeh begründete Fuzzy-Logik, Künstliche Neuronale Netze (KNN) sowie die Agententechnologie zur Verbesserung der Informationserschließung im WWW leisten können. Ein im Rahmen der Arbeit in der UML-Notation (UML = Unified Modeling Language) spezifiziertes Multi-Agenten-System zur Informationssuche, -filterung und -klassifikation stellt die Machbarkeit und Praxistauglichkeit der theoretischen Konzepte unter Beweis. Durch zwei beispielhafte Anwendungsfälle wird gezeigt, dass KNN für die Suche, Filterung und Klassifikation von Informationen im WWW geeignet sind. Bis zu 90 % unbekannter Informationsangebote aus dem WWW wurden in Testläufen korrekt klassifiziert.
Comment:
1. GutachterIn: Prof. Dr. Karl Kurbel Institution: Universität Frankfurt/Oder 2. GutachterIn: Prof. Dr. Eberhard Stickel Institution: Universität Frankfurt/Oder
edit comment | edit entry | edit Topics | edit Category | display Bibtex
eGovernment - Distribution öffentlicher Leistungen über das Internet
Herwig, Volker
Universität Jena (2001)
Abstract:
Electronic Government (E-Government), digitales Rathaus und virtuelle Verwaltung sind einige der Begriffe, die in den letzten Jahren unter reger Anteilnahme der Öffentlichkeit die Modernisierungsdebatte der öffentlichen Institutionen wesentlich bestimmt haben. Sie beziehen sich auf den Einsatz des Internets im Bereich der öffentlichen Institutionen, der vor dem Hintergrund der steten Forderung nach mehr Bürgernähe einerseits und der Suche nach Rationalisierungspotential andererseits diskutiert wird. Herausragendes Potential bietet dabei die Nutzung des Internets zum Vertrieb von Leistungen wie der Kfz-Zulassung oder der Umzugsmeldung. Bei entsprechenden Untersuchungen verbietet sich noch mehr als bei solchen für private Unternehmen ein leichtfertiger, auf die technologische Komponente verengter Umgang. Einem interdisziplinären Diskussionsansatz, wie er in dieser Arbeit verfolgt wird, ist so hohe Bedeutung beizumessen.
Comment:
1. GutachterIn: Prof. Johannes Ruhland Institution: Friedrich-Schiller Universität Jena
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Rechnergestützte Ansätze zur Rückflussprognose von Altprodukten zum Remanufacturing
Gómez, Jorge Carlos Marx
Universität Magdeburg (2001)
Abstract:
Die Bereitstellung von Rückflussprognosen von Altprodukten zum Recycling und Remanufacturing erweist sich als sehr schwierig, da von einer Nichtexistenz der Informationen und Daten über vergangene Rückläufe und folglich mit Unsicherheiten in allen Planungsbereichen ausgegangen werden muss. Der hier vorgestellte mehrstufige Prognoseansatz basiert auf Produktlebenszykluszahlen und weiteren Einflussfaktoren. Er besteht aus einem Simulationsmodell, einem Fuzzy-Inferenz-System zur Rückflussprognoseunterstützung in einer bestimmten Planungsperiode und einem Neuro-Fuzzy-System zur Vorhersage des mengenmäßigen Rückflusses von Altprodukten über die Zeit. Das gesamte Konzept wird anhand einer Fallstudie zu Fotokopierern illustriert.
Comment:
1. GutachterIn: Prof. Claus Rautenstrauch Institution: Otto-von-Guericke-Universität Magdeburg 2. GutachterIn: Prof. Rudolf Kruse Institution: Otto-von-Guericke-Universität Magdeburg 3. GutachterIn: Prof. Lorenz Hilty Institution: EMPA St. Gallen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Performance-orientierte Systementwicklung am Beispiel datenbankbasierter integrierter Anwendungssysteme
Scholz, André
Universität Magdeburg (2001)
Abstract:
In der Dissertation werden die Konzepte der a-priori sowie der ex-post-orientierten Performance-Analyse am Beispiel datenbankbasierter integrierter Anwendungssysteme vorgestellt, durch Referenzprozessmodelle strukturiert und durch Methodensammlungen unterstützt. Bei der ex-post-orientierten Analyse werden die Performance-Charakteristiken eines Anwendungssystems im laufenden Produktivbetrieb untersucht und gegebenenfalls in einem mehrstufigen Prozess verbessert. Bei der a-priori-orientierten Analyse werden die Performance-Anforderungen bereits in der Systementwicklung durch einen iterativen Analyseprozess berücksichtigt. Methoden und Modelle des Software Engineerings migrieren mit Methoden und Modellen der klassischen Leistungsbewertung. Dadurch kann sichergestellt werden, dass das Anwendungssystem direkt nach dem Produktivgang über die anforderungsspezifischen Performance-Charakteristiken verfügt.
Comment:
1. GutachterIn: Prof. Dr. Claus Rautenstrauch Institution: Universität Magdeburg 2. GutachterIn: Prof. Dr. Reiner Dumke Institution: Universität Magdeburg 3. GutachterIn: Prof. Dr. Harald Reiterer Institution: Universität Konstanz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Agentenbasierte Dienste im Internet auf der Basis semantisch angereicherter Informationen im World Wide Web am Beispiel des Online-Brokerage
Leich, Steffen
Universität Marburg (2001)
Abstract:
Wer sich in der Welt des E-Commerce bewegt, wird oft mit dem Problem konfrontiert, dass im Online-Bereich immer mehr Informationen zur Verfügung stehen und mögliche Transaktionen zunehmend komplexer und abstrakter werden: Es kommt zu einer Informationsüberlastung für den Menschen. Lösungen bietet die Technik der Agentensoftware, welche für den Kunden Kommunikations- und Informationsaufgaben übernehmen kann. Am Beispiel der Online-Finanzdienstleistungen und speziell des Online- Brokerage analysiert der Autor die aktuellen Infrastrukturen und präsentiert eine marketingpsychologische Betrachtung der Kommunikation zwischen Banken und ihren Kunden sowie eine Bestandsaufnahme der Automatisierung dieser Kommunikation. Auf dieser Basis entwickelt er das System BrokerSelector zur maschinellen Aufnahme und vergleichenden Beurteilung von Leistungsinformationen von Online-Brokern.
Comment:
1. GutachterIn: Prof. Paul Alpar Institution: Universität Marburg/Lehrstuhl für Wirtschaftsinformatik 2. GutachterIn: Prof. Ulrich Hasenkamp Institution: Universität Marburg/Lehrstuhl für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Petri-Netz-Konzepte zur Simulation verteilter betrieblicher Abläufe
Zimmer, Torsten
Universität Frankfurt a.M. (2001)
Abstract:
In der Arbeit wird vorgeschlagen, Petri-Netze als Beschreibungssprache bei der Entwicklung von betrieblichen Informationssystemen zu verwenden. Es wird ein Simulationskonzept vorgestellt, das zur Validierung von Modellen verteilter betrieblicher Abläufe geeignet ist. Dieses Simulationskonzept erzeugt zu einem Petri-Netz Prozessnetze. Eine Implementierung dieses Konzepts wird beschrieben und Vorteile gegenüber bisherigen Simulationskonzepten werden herausgestellt. Es werden analytische Maßnahmen zur Qualitätssicherung von Petri-Netzen vorgeschlagen. Dabei werden sowohl Verfahren für die Durchführung eines Review als auch Verfahren zur Testfallerzeugung beschrieben. Die Testfälle können zur Validierung eines Petri-Netzes verwendet werden. Es werden mögliche Anwendungen des dargestellten Simulationskonzepts vorgestellt: Die Gestaltung einer Ablauforganisation und die Entwicklung eines Petri-Netz-basierten Workflow-Management-Systems sollen die Verwendung von Prozessnetzen motivieren.
Comment:
1. GutachterIn: Prof. Dr. Andreas Oberweis Institution: Universität Frankfurt a. M. 2. GutachterIn: Prof. Dr. Wolfgang König Institution: Universität Frankfurt a. M.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Computergestütztes Management von Verwaltungsvorgängen mit Umwelt-informationen
Weinkauf, Ronny
Universität Halle (2001)
Abstract:
Schlagworte: Informationsmanagement, Umweltinformatik, Verwaltungsinformatik, Informationsinfrastruktur, Geschäftsprozessmodellierung
Comment:
1. GutachterIn: Prof. Dr. Jochen Picht Institution: Universität Halle 2. GutachterIn: Prof. Dr. Hans-Ulrich Zabel Institution: Universität Halle 3. GutachterIn: Prof. Dr. Dieter Ehrenberg Institution: Universität Leipzig
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konzeption eines Prototypen für die Überführung der SAP-R/3-Kosten-Leistungsrechnung in ein gleichungsbasiertes Kosten-Leistungsmodell
Golas, Eike
TU Berlin (2001)
Abstract:
Im Rahmen der Dissertation wurde das SAP-R/3-System, speziell das Controll-Modul, eine betriebswirtschaftlichen Analyse unterzogen. Ergebnis des ersten Schrittes ist eine vollständige Dokumentation der Kostenrechnung auf Gleichungsbasis. Dabei wurden eine Reihe an Schwachstellen identifiziert. In einem zweiten Schritt wurde ein Verfahren entwickelt, mit dessen Hilfe die Daten der SAP-R/3-Kosten-Leistungsrechnung in ein konsistentes Kostenrechnungsmodell überführt und somit die aufgezeigten Schwachstellen und Defizite beseitigt werden. Im Rahmen der Dissertation wurde zusätzlich ein Programm entwickelt, welches die SAP-R/3-Kosten-Leistungsrechnung aus dem System liest, die notwendigen Analysen durchführt und die korrekte Transformation in ein Gleichungsmodell durchführt (Nähere Informationen zum Programm siehe hier)
Comment:
1. GutachterIn: Prof. Zwicker Eckart Institution: TU Berlin / Institut für BWL / Controlling und Unternehmensrechnung 2. GutachterIn: Prof. Krystek Ulrich Institution: TU Berlin / Institut für BWL / Controlling und Unternehmensrechnung
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Benchmarking als Instrument der lntelligenten Organisation
Komus, Ayelt
Universität des Saarlandes (2001)
Abstract:
Mit zunehmenden Umfeldveränderungen gewinnt Organisatorische Intelligenz als Fähigkeit einer Organisation, Antworten auf neue Fragestellungen zu finden und umzusetzen zunehmend an Bedeutung. Es gilt, die Lernprozesse einer Organisation laufend zu hinterfragen und weiter zu verbessern. Basierend auf aktuellen Beiträgen zur Lernenden Organisation, Wissensmanagement und der Intelligenten Organisation zeigt Ayelt Komus die Möglichkeiten des Benchmarking-Ansatzes zur Steigerung der Organisatorischen Intelligenz. Hierbei werden zunächst wichtige Hinweise zur effizienten Nutzung des Benchmarking-Ansatzes innerhalb der Prozesse der Intelligenten Organisation gegeben. Mit der anschließenden Entwicklung eines Kennwertsystems der Organisatorischen Intelligenz und einem spezifischen Benchmarking-Vorgehensmodell werden zudem die Voraussetzungen für ein Benchmarking zwischen Intelligenten Organisation geschaffen. Mit den betrachteten zwei Perspektiven des Benchmarkings als Instrument der Intelligenten Organisation steht dem Leser ein wichtiger Beitrag auf dem Weg vom Wissensmanagement zum gezielten Management der Organisatorischen Intelligenz zur Verfügung.
Comment:
1. GutachterIn: Univ.-Prof. Dr. Dr. h.c. mult. August-Wilhelm Scheer Institution: Universität des Saarlandes 2. GutachterIn: Univ.-Prof. Dr. Christian Scholz Institution: Universität des Saarlandes
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Flexible Kundeninteraktionsprozesse im Communication Center
Zapf, Michael
Universität Bayreuth (2001)
Abstract:
Auf der Basis der relevanten Literatur zur Unternehmensflexibilität und der Entscheidungstheorie wird ein modellgestützter, entscheidungstheoretischer Ansatz zur Flexibilitätsanalyse entwickelt, mit dem Kundeninteraktionsprozesse anhand realer Daten tiefgreifend analysiert werden können. Dieses Instrumentarium wird für die Untersuchung realer Prozessmuster aus dem Communication Center unter Verwendung von Vergangenheitsdaten aus vier unterschiedlichen Branchen eingesetzt. Die Analyse erfolgt auf der Basis eines multitheoretischen Bezugsrahmens, der relevante, normativ ausgerichtete Arbeiten aus der Organisationsforschung, dem Operations Research und der Arbeitspsychologie einbezieht. Als Gestaltungsdimensionen werden die Qualifikation der einzusetzenden Mitarbeiter (Generalisten versus Spezialisten) sowie das zu unterstützende Kommunikationsmittel (Telefon versus E-Mail) betrachtet.
Comment:
1. GutachterIn: Prof. Armin Heinzl Institution: Universität Bayreuth 2. GutachterIn: Prof. Jörg Schlüchtermann Institution: Universität Bayreuth
edit comment | edit entry | edit Topics | edit Category | display Bibtex
PBK-Editor - Ein Werkzeug zur Erstellung von WWW-gestützten Produktberatungskomponenten
Rosewitz, Martin
Universität Erlangen-Nürnberg (2001)
Abstract:
Die Arbeit beschreibt den Versuch, den Mangel von Beratungspersonal beim Einkauf bzw. bei der Produktsuche im elektronischen Medium zu kompensieren. Dazu identifiziert sie zunächst die relevanten Bestandteile der Beratungsleistung (insbesondere für den Fall der Selektionsberatung), um anschließend einen möglichst großen Teil davon gewissermaßen als "virtuellen Verkäufer" zur Verfügung zu stellen und dem potenziellen Kunden so eine Selbstberatung zu ermöglichen. Dabei wurde nicht nur ein Muster für eine einzelne Erzeugnisart implementiert, vielmehr war ein "universelles" System zu entwickeln, das sich möglichst auf zahlreiche Produktkategorien anwenden lässt. Neben einem produktbezogenen Zugang wurde ein auf der Fuzzy-Technologie basierender eigenschaftsbezogener sowie ein problembezogener Zugang realisiert. Der Autor veranschaulicht die Arbeitsweise und die breite Einsetzbarkeit des Systems an unterschiedlichen Erzeugnissen.
Comment:
1. GutachterIn: Prof. Dr. Dr. h. c. mult. Peter Mertens Institution: Universität Nürnberg-Erlangen 2. GutachterIn: Prof. Dr. Günther Görz Institution: Universität Nürnberg-Erlangen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
WWW-basierte regionale Allokation von Personalressourcen in Unternehmensnetzwerken
Maier, Matthias
Universität Erlangen-Nürnberg (2001)
Abstract:
Ging man bisher davon aus, dass die Mitarbeiter eines Unternehmens den Arbeitsplätzen des gleichen Betriebes zuzuordnen sind, so ist es in der Zukunft nicht ausgeschlossen, dass mehrere Unternehmen einer Region als „Extended Enterprise“ auftreten. Damit wird ein kurz sowie mittelfristiger Auf- und Abbau von Personalkapazität denkbar. Dabei mögen die zahlreichen Jobbörsen im WWW, die ein breites Spektrum an Arbeitskräften vermitteln, ein Hilfsmittel sein.
Comment:
1. GutachterIn: Prof. Dr. Dr. h. c. mult. Peter Mertens Institution: Universität Erlangen-Nürnberg 2. GutachterIn: Prof. Dr. Hermann Scherl Institution: Universität Erlangen-Nürnberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Eine integrative, modellgestützte Methode zur Gestaltung von computerunterstützten kooperativen Arbeitssystemen
Wolf, Rainer
Universität Stuttgart (2001)
Abstract:
Für die Implementierung neuer Organisationsformen, die durch Groupware oder Workflow Management Systeme unterstützt werden, ist eine integrierte Vorgehensweise notwendig. Aufgrund der Komplexität solcher Projekte werden oftmals Modellierungsmethoden verwendet, die im Kontext des Software Engineering oder der Wirtschaftsinformatik entwickelt wurden und damit ihren ursprünglichen Einsatzbereich verlassen. Dennoch gibt es bisher kaum Ansätze, die überprüfen, inwieweit eingesetzte Methoden den Belangen der Organisationsgestaltung genügen. Die vorliegende Arbeit leistet einen Beitrag, diesen Mangel zu vermindern, und stellt eine modellgestützte Methode vor, die aus den bewährten Methoden der objektorientierten Modellierung und der Geschäftsprozessmodellierung hervorgeht. Sie ergänzt diese um Aspekte der Organisationsgestaltung und ist so in der Lage, organisatorische Risiken zu berücksichtigen und Chancen der organisatorischen Gestaltung zu nutzen.
Comment:
1. GutachterIn: Prof. Dr. Erich Zahn Institution: Universität Stuttgart 2. GutachterIn: Prof. Dr. Thomas Fischer Institution: Universität Stuttgart
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Towards a Theory of Representations for Genetic and Evolutionary Algorithms: Development of Basic Concepts and their Application to Binary and Tree Representations
Rothlauf, Franz
Universität Bayreuth (2001)
Abstract:
In the field of genetic and evolutionary algorithms (GEAs), much theory and empirical study has been heaped upon operators and test problems, but problem representation has often been taken as given. This monograph breaks with this tradition and studies a number of critical elements of a theory of representations for GEAs and applies them to the empirical study of various important idealized test functions and problems of commercial import. The book considers basic concepts of representations, such as redundancy, scaling and locality and describes how GEAs'performance is influenced. Using the developed theory representations can be analyzed and designed in a theory-guided manner. The theoretical concepts are used as examples for efficiently solving integer optimization problems and network design problems. The results show that proper representations are crucial for GEAs'success.
Comment:
1. GutachterIn: Prof. Armin Heinzl Institution: Universität Bayreuth 2. GutachterIn: Prof. David E. Goldberg Institution: University of Illinois at Urbana-Champaign /USA
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Speed Management mit analytischen Informationssystemen
Schmidt, Harald
Universität Linz (2001)
Abstract:
Entscheidungen über die Einführung analytischer Informationssysteme (OLAP-Tools, Data Warehouses u. Ä.) in Unternehmen sollten auf Grund des meist großen Investitionsvolumens nur auf Basis einer ausführlichen Kosten-Nutzen Betrachtung erfolgen. Während die Kosten dieser Technologieeinsatzentscheidung relativ einfach feststellbar sind, stellt die Quantifizierung von Nutzeffekten nach wie vor ein Problem für Entscheidungsträger dar. In der Arbeit wird ein Schätzverfahren für die Ermittlung der zeitlichen Nutzeffekte beim Prozess des Erstellens von Berichten mit Analysewerkzeugen vorgestellt. Die Entwicklung des Schätzverfahrens erfolgt in mehreren Entwicklungszyklen, die sowohl im Feld als auch im Labor stattfinden. Neben einer ersten Anwendung und Evaluation im Rahmen einer Fallstudie sind alle Entwicklungszyklen in der Arbeit dokumentiert.
Comment:
1. GutachterIn: Prof. Dr. Lutz J. Heinrich Institution: Universität Linz 2. GutachterIn: Prof. Dr. Friedrich Roithmayr Institution: Universität Innsbruck
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Universitäre Bildungskooperationen: Gestaltungsvarianten für Geschäftsmodelle
Hagenhoff, Svenja
Universität Göttingen (2001)
Abstract:
Hochschulen gehen dazu über, verstärkt Neue Medien in der Lehre einzusetzen. Aufgrund der hierbei entstehenden relativ hohen Kosten bietet es sich an, hochschulübergreifend miteinander zu kooperieren und zum Beispiel Lehrmodule untereinander auszutauschen, Lehrmaterialien arbeitsteilig miteinander zu erstellen oder gemeinsam virtuelle Bildungsmaßnahmen an den Weiterbildungsmarkt abzugeben. Die Arbeit untersucht die management- und organisationsbezogenen Zusammenhänge von Hochschulkooperationen. Es werden Markt-, Leistungs- und Ressourcenanalysen erstellt und dargelegt, welche Kooperationspotenziale für Hochschulen bestehen, welche Leistungen diese Kooperationen an welche Märkte abgeben können und welcher Input hierfür notwendig ist. Darüber hinaus werden die inneren Kooperationszusammenhänge untersucht und dabei sowohl operative Aspekte, wie z. B. Leistungsverrechnung und Prüfungsorganisation, als auch strategische Gesichtspunkte, wie z. B. Partnerwahl, behandelt.
Comment:
1. GutachterIn: Prof. Matthias Schumann Institution: Universität Göttingen, Institut für Wirtschaftsinformatik, Abt. II 2. GutachterIn: Prof. Dieter Ehrenberg Institution: Universität Leipzig, Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Eine Entwurfsmethodik für Data Warehouses
Herden, Olaf
Universität Oldenburg (2001)
Abstract:
Als Kern entscheidungsunterstützender Informationssysteme müssen Data Warehouses (DWHs) gewisse Qualitätskriterien erfüllen. Allerdings unterscheiden sich DWHs von operativen Datenbanken so stark, dass bestehende Entwurfsmethodiken nicht unmittelbar anwendbar sind. In dieser Arbeit wird eine auf dem Drei-Ebenen-Entwurf basierende Methodik für den Entwurf von DWHs vorgestellt. Für die konzeptionelle Ebene wird eine Sprache präsentiert, die sowohl multidimensionale als auch objektorientierte Modellierungskonstrukte anbietet. Als zugehörige graphische Notation wird eine multidimensionale Erweiterung der UML vorgenommen. Nach der in einer abbildungsorientierten Vorgehensweise definierten Transformation auf die logische Entwurfsebene wird der physische Entwurf des Schemas unter besonderer Berücksichtigung von DWH-Eigenschaften behandelt.Weiterhin werden in der Arbeit die softwaretechnische Umsetzung der Konzepte beschrieben und die entworfene Methodik an einem Realwelt-Beispiel evaluiert.
Comment:
1. GutachterIn: Prof. Dr. Hans-Jürgen Appelrath Institution: Universität Oldenburg 2. GutachterIn: Prof. Dr.-Ing. Heinz F. Schweppe Institution: Freie Universität Berlin
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Kollaborative Supply-Chain-Execution in heterarchisch koordinierten Logistiknetzwerken auf der Basis von mobilen Agentensystemen
Windischbauer, Thomas
Universität Linz (2002)
Abstract:
Logistiknetzwerke müssen zur Steigerung der Wettbewerbsfähigkeit ihre Abläufe automatisieren und gegenseitig anpassen. Die dynamische Umwelt jedes Unternehmens und jedes Logistiknetzwerkes verursacht eine permanentes Nachjustieren bereits getroffener Entscheidungen. Dazu ist es notwendig, zur Wahrung der Stabilität der unternehmensinternen und unternehmensübergreifenden Prozesse und zur Erhaltung und Steigerung der Wettbewerbsfähigkeit der Logistiknetzwerke, die Dynamik bestmöglich zu meistern. Eine erfolgreiche Meisterung von sich stetig ändernden Situationen kann nur durch Zusammenarbeit über die Unternehmensgrenzen hinweg erfolgen.
Comment:
1. GutachterIn: Prof. Günther Zäpfel Institution: Johannes Kepler Universität Linz/Institut für Indusrie und Fertigungswirtschaft 2. GutachterIn: Prof. Gustav Pomberger Institution: Johannes Kepler Universität Linz/Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Netzwerkstrategien und Informationstechnik - Eine ökonomische Analyse von Strategien in Unternehmensnetzwerken und deren Wirkungen auf die Ausgestaltung der zwischenbetrieblichen Informations- und Kommunikationssysteme
Raupp, Markus
Universität Freiburg (2002)
Abstract:
Empirische Befunde machen deutlich, dass Unternehmensnetzwerke aus Perspektive der Organisations- und Strategiegestaltung einen Bedeutungsgewinn erfahren haben. Dem Einsatz moderner Informations- und Kommunikationstechnologie (IKT) kommt in dieser Hinsicht eine hohe Relevanz zu, wobei die Potentiale der IKT jedoch nur durch ihre Einbettung in die Netzwerkstrategie und in Relation zu anderen Bausteinen der Unternehmensgesamtstrategie konkretisiert werden können. Vor diesem Hintergrund ist es das Ziel der Arbeit, strategische Gestaltungsoptionen für Unternehmensnetzwerke zu analysieren. Zu diesem Zweck wird ein strategisches Rahmenmodell entwickelt, welches Elemente der Neuen Institutionenökonomik und der Managementlehre integriert. Einen zentralen Analysegegenstand bildet die Ausgestaltung der interorganisatorischen Koordinationsstruktur in Abhängigkeit von spezifischen Partnerkonstellationen, einschließlich der Untersuchung der situativen Bedeutung von Vertrauen.
Comment:
1. GutachterIn: Prof. Dr. Franz Schober Institution: Albert-Ludwigs-Universität Freiburg i. Br. / Lehrstuhl für Wirtschaftsinformatik 2. GutachterIn: Prof. Dr. Günter Müller Institution: Albert-Ludwigs-Universität Freiburg i. Br. / Institut für Informatik und Gesellschaft
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konfiguration und Rekonfiguration mittels Constraint-basierter Modellierung
John, Ulrich
Universität Würzburg (2002)
Abstract:
Hauptgegenstand der Arbeit ist die Entwicklung und Untersuchung eines leistungsstarken Ansatzes für die wahlweise automatische oder hochflexibel interaktionsgesteuerte Konfiguration und Rekonfiguration von Produkten. Das entwickelte Problemlösungsmodell basiert im wesentlichen auf constraint-basierter Modellierung über endlichen Domänen und deckt in der vorgestellten Form eine breite Palette technischer und nicht-technischer Konfigurationsprobleme ab, wobei alle ausschlaggebenden Qualitätsmerkmale für Konfigurationssysteme erfüllt sind. Die modellbedingte drastische Einschränkung des Suchraumes bietet darüber hinaus Potenzial für die adäquate Berücksichtigung von Optimierungszielen.
Comment:
1. GutachterIn: Prof. Dr. Stefan Jähnichen Institution: TU Berlin 2. GutachterIn: Prof. Dr. Dietmar Seipel Institution: Universität Würzburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ablaufplanungsprobleme mit beschränkter Verfügbarkeit der Prozessoren und beschränkter Anzahl der Präemptionen
Braun, Oliver
Universität des Saarlandes (2002)
Abstract:
Klassische Modelle der Theorie der Ablaufplanung sind gerade ihrer Abstraktheit wegen auf viele aus der Praxis motivierte Fragestellungen anwendbar, decken allerdings nicht jede Fragestellung ab. So wird zum einen in klassischen Modellen gewöhnlich davon ausgegangen, dass alle Prozessoren während des gesamten Planungszeitraums kontinuierlich für produktive Tätigkeiten zur Verfügung stehen. Zum anderen sind viele klassische Modelle der Ablaufplanung so formuliert, dass zu ihrer Lösung Ablaufpläne mit einer beliebigen Anzahl von Auftragsunterbrechungen (Präemptionen) zugelassen sind. Beide Grundannahmen sind bei real auftretenden Ablaufplanungsproblemen häufig nicht gerechtfertigt. In der vorliegenden Arbeit werden daher zwei klassische Ablaufplanungsprobleme hinsichtlich der beschriebenen Beschränkungen untersucht. Die erzielten Ergebnisse wurden im International J. of Operations Research 40(17), 4381-4400, 2002, und im SIAM J. on Computing 32(3), 671-680, 2003, veröffentlicht.
Comment:
1. GutachterIn: Prof. Dr.-Ing. Günter Schmidt Institution: Universität des Saarlandes 2. GutachterIn: Prof. Dr. Zimmermann Jürgen Institution: Technische Universität Clausthal
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Geschäftsmodelle von Medienunternehmen: Ökonomische Grundlagen und Veränderungen durch neue Informations- und Kommunikationstechnik
Hass, Berthold H.
Universität München (2002)
Abstract:
Digitalisierung und Vernetzung führen in der Medienwirtschaft so wie in kaum einer anderen traditionellen Branche zu neuen Herausforderungen und tief greifenden strukturellen Veränderungen. Verbesserte Informations- und Kommunikationstechnik beeinflusst nicht nur Organisation und Management von Medienunternehmen, sondern insbesondere auch nachhaltig die Produktion, Redaktion, Distribution und Konsumtion von Medienprodukten. Zur Analyse dieser Veränderungen bedient sich Berthold H. Hass des häufig benutzten, aber selten präzisierten Konstrukts des Geschäftsmodells, das er für Medienunternehmen operationalisiert. Basierend auf einer fundierten Analyse der Spezifika von Medienprodukten werden somit Optionen für die erfolgreiche Gestaltung von Geschäftsmodellen entwickelt.
Comment:
1. GutachterIn: Prof. Arnold Picot Institution: LMU München, Institut für Unternehmensentwicklung und Organisation 2. GutachterIn: Prof. Dietmar Harhoff Institution: LMU München, Institut für Innovationsforschung und Technologiemanagement
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modellierungsmethode zur Integration zwischenbetrieblicher Informationsflüsse
Steffen, Thomas
Universität Paderborn (2002)
Abstract:
Ausgehend von Fallbeispielen aus der praktischen Tätigkeit des Autors, werden mögliche Ausprägungen einer Integration zwischenbetrieblicher Informationsflüsse identifiziert. Daraus werden - nach Abgrenzung der zentralen Begriffe Information, Informationsfluss, Integration und Modell - Ziele, Aufgaben sowie Anforderungen an eine Modellierungsmethode zur Integration zwischenbetrieblicher Informationsflüsse abgeleitet. Nach Maßgabe dieser Anforderungen wird die "Modellierungsmethode für den verteilten Entwurf zwischenbetrieblicher Informationsflüsse (MOVE)" dargestellt und weiter entwickelt. Zu den Komponenten zählen ein materiell orientierter Entwurfsrahmen, eine ontologiebasierte Referenzbibliothek, eine grafische Modellierungssprache sowie eine Vorgehensweise. Anhand eines umfassenden Beispiels aus der Konsumgüterbranche wird gezeigt, dass durch den Einsatz von MOVE eine einfache, schnelle und kostengünstige Realisierung und Wartung von zwischenbetrieblichen Integrationslösungen ermöglicht wird.
Comment:
1. GutachterIn: Prof. Dr. Joachim Fischer Institution: Universität Paderborn 2. GutachterIn: Prof. Dr. Ludwig Nastansky Institution: Universität Paderborn
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Management of Development Processes – An Evolutionary Approach
Schleicher, A.
RWTH Aachen (2002)
Abstract:
The management and coordination of development processes in technical domains is a difficult task. Development teams are growing in size and the advancing globalization imposes a higher pressure to develop more competitive products faster and cheaper. The employment of process management systems (e.g. workflow management or project management systems) promises improvements in terms of planning and monitoring support or even developer guidance and co-ordination. However, long-term studies have revealed that current process support technology, which has proven useful for routine, repetitive processes, is insufficient for development process management. Development processes are of an inherently dynamic nature. Changing requirements and standards, unexpected feedback or the dependence of the process on its own intermediate results disable the a-priori planning of the complete process and lead to its continuous evolution. Furthermore, the knowledge about development processes is often heterogeneous with respect to its preciseness and completeness. Available process management systems are incapable of addressing the inherent evolution and the heterogeneous available process knowledge. Both, managers and developers agree on their inflexibility, which disables managers to react to ad-hoc situations and hinders developers in their creativity. This book describes the concepts behind and the implementation of a process management system addressing these issues of supporting process evolution and the handling of heterogeneous process knowledge. The concepts are based on our studies of real development processes in the domain of chemical engineering, which have led to new requirements. These requirements and an ideal system structure are described within a conceptual framework, which identifies and interrelates the necessary concepts and builds the terminological and conceptual foundation for this book. The framework proposes a four-layer view onto process management. The first layer reflects the real process being performed by the developers. The real process is mapped and guided within the process model instance layer. Reusable process knowledge is kept within the process model definition layer. Process model definitions can be instantiated to create new process model instances. The syntax and semantics of the process model definition and instance are defined within the process meta model layer, where an enactable process modeling language is offered. The essential contributions of this framework and its realization with respect to process evolution and process knowledge management support are as follows: Process model instances, which map and guide the real process, can be created, maintained and enacted in an interleaved fashion. A process manager is enabled to plan the process as far ahead as the current situation permits. He can complete and revise the plan as necessary, even when the process is already performed by the developers. The framework does not enforce the consistency of process model definitions and instances. As a result, a process manager or developer may deviate from the plan, if necessary. The system detects occurred inconsistencies and signals and explains them to the process participants. Inconsistencies may remain persistent, but can also be removed by applying the interleaved manipulation and enactment facilities. Process model instances can be created from process model definitions with any degree of preciseness. By consequence, the full range of process model instances, from ad-hoc to consistent with respect to a given process model definition, can be supported. This enables the discovery and the improvement of a process (model) through the application of the process management system. Process model definitions can be inferred from ad-hoc or inconsistent process model instances. These implicitly carry new knowledge about a process, which has not been modeled before. An inference tool aids the process modeler in discovering new knowledge about a process and in creating new or revising existing process model definitions. The process model definition is expressed and maintained in the Unified Modeling Language, which enables abstract, visual and object-oriented modeling of processes. Changes to the process model definition, which may be induced by the inference mechanism or a process modeler, can be applied on the level of separate packages through a fine-grained versioning mechanism. Changed process model definitions may be propagated onto their enacting instances. A migration technique allows for the migration of a process model instance from an old to a new version. The proposed migration algorithm is guaranteed to be applicable, because it is based on the inconsistency toleration mechanism. We have particularly considered the requirement of leaving the manager in control of his managed process and of supporting economically and motivationally sensible migration of instances. As this description suggests, the singular concepts are highly interrelated. Their integration yields synergetic effects. These are unobtainable, when only realizing a cutout of the proposed framework. The discovery of new process knowledge, the interleaved editing and enactment of process model instances within or outside of the constraints imposed by the process model definition, the latter’s continuous and fine-grained changeability and the guaranteed migratability of process model instances amount to a process management system offering roundtrip process evolution support and wide spectrum process knowledge management capabilities.
Comment:
1. GutachterIn: Prof. Dr.-Ing. Manfred Nagl Institution: RWTH Aachen 2. GutachterIn: Prof. Dr. Theo Härder Institution: Universität Kaiserslautern
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Einsatzpotenziale und Auswirkungen von E-Procurement-Lösungen - Eine Analyse des Entwicklungsstands in Schweizer Grossunternehmen
Eyholzer, Kilian
Universität Bern (2002)
Abstract:
Die Dissertation analysiert die heutigen Rahmenbedingungen und Herausforderungen der Beschaffung (insbesondere der Beschaffung indirekter Güter), erörtert die Potenziale von Internettechnologien, vornehmlich von sogenannten Direct-Purchasing-Systemen (DPS), zur Unterstützung und Optimierung der Beschaffung und ermittelt deren aktuellen und zukünftig zu erwartenden Nutzungsgrad in Schweizer Grossunternehmen. Schwerpunktmäßig werden die unternehmensinternen und -externen Auswirkungen, die sich aus der Nutzung von DPS ergeben, und das Potenzial dieser Systeme zur Schaffung langfristiger Wettbewerbsvorteile untersucht. Die im theoretischen Teil der Arbeit aufgestellten Forschungsfragen und Hypothesen werden anhand der Resultate einer quantitativen (schriftliche Umfrage) sowie einer qualitativen Studie (6 Fallstudien) validiert und weiterentwickelt.
Comment:
1. GutachterIn: Prof. Joachim Griese Institution: Universität Bern, Institut für Wirtschaftsinformatik 2. GutachterIn: Prof. Walter Brenner Institution: Universität St. Gallen, Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Unterstützung von Wissensnetzwerken mit I-Net-basierten Informations- und Kommunikationstechnologien: Konzepte, Dienstemodell, Vorgehen
Raimann, Jörg
Universität St. Gallen (2002)
Abstract:
Die Dissertation beschäftigt sich mit Vorgehensweisen zum Aufbau und Betrieb von Wissensnetzwerken; insbesondere mit den Möglichkeiten des Einsatzes von I-Net-basierten Informations- und Kommunikationstechnologien (IKT) zur Unterstützung von Wissensnetzwerken. Hierzu werden aktuelle Ansätze zu verschiedenen Formen von Wissensnetzwerken dargestellt und verglichen. Des Weiteren wird ein Dienstemodell für Wissensnetzwerke entwickelt sowie Vorgehensaspekte zur Umsetzung des Dienstemodells dargestellt.
Comment:
1. GutachterIn: Prof. Andrea Back Institution: Universität St. Gallen / Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Datenqualitätsmanagement in Data Warehouse-Systemen
Hinrichs, Holger
Universität Oldenburg (2002)
Abstract:
Im Data Warehousing blieben Fragen der Datenintegration und Datenqualitätssicherung lange unberücksichtigt. Dabei ist leicht einzusehen, dass die Auswertung von qualitativ mangelhaften (d.h. inkonsistenten, unvollständigen, obsoleten etc.) Daten zwangsläufig zu qualitativ mangelhaften Ergebnissen führt. In der vorliegenden Arbeit werden grundlegende Konzepte eines Datenqualitätsmanagements herausgearbeitet und im Kontext des Data Warehousing konkretisiert. Den Kern der Arbeit bildet ein 10-phasiges, ISO 9001:2000-basiertes Vorgehensmodell zur qualitätsgelenkten Datenintegration, welches die methodische Grundlage für hochgradig automatisierte, reproduzierbare und wartbare Integrationsprozesse mit qualitätsgesicherten Ergebnissen schafft. Zur technischen Umsetzung des Vorgehensmodells wird ein als CLIQWorkbench bezeichnetes Softwaresystem entworfen, prototypisch implementiert und evaluiert, welches die Planung, Durchführung und Analyse von Datenintegrationsprozessen unterstützt.
Comment:
1. GutachterIn: Prof. Hans-Jürgen Appelrath Institution: Universität Oldenburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Speditionelle Transportdisposition. Modell- und Verfahrensentwicklung unter Berücksichtigung von Dynamik und Fremdvergabe
Pankratz, Giselher
Fernuniversität Hagen (2002)
Abstract:
Moderne computergestützte Informationssysteme zur Transportdisposition können einen signifikanten Beitrag zur dringend notwendigen Erschließung von Rationalisierungspotenzialen im Transportgewerbe leisten. Giselher Pankratz präsentiert ein Modell eines speditionellen Dispositionsproblems, das im Unterschied zu herkömmlichen Ansätzen simultan die Aspekte des Selbsteintritts, der Fremdvergabe und des dynamischen Auftragseingangs berücksichtigt. Er entwickelt einen Genetischen Algorithmus, der zur Bewältigung der Dynamik in ein rollierendes Planungskonzept eingebunden wird. Die Evaluierung mit praxisorientierten Testproblemen belegt ein stabiles Lösungsverhalten und eine hohe Lösungsqualität des Ansatzes. Das Buch wendet sich an Dozenten und Studierende der Betriebswirtschaftslehre mit den Schwerpunkten Logistik, Wirtschaftsinformatik oder Operations Research sowie an Softwareentwickler, die sich mit der Lösung von Optimierungsproblemen in der Transportlogistik befassen.
Comment:
1. GutachterIn: Prof. Hermann Gehring Institution: FernUniversität Hagen 2. GutachterIn: Prof. Wilhelm Rödder Institution: FernUniversität Hagen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integration der virtuellen Community in das CRM
Markus, Ursula
Universität des Saarlandes (2002)
Abstract:
Die Strategie des Customer Relationship Managements (CRM) trägt den steigenden Anforderungen auf Kundenseite Rechnung, indem sie die Ausrichtung aller Unternehmensprozesse auf den Kunden postuliert. Die Autorin zeigt auf, wie das Geschäftsmodell der virtuellen Community im Rahmen des CRM als wichtiger Kontaktpunkt zum Kunden profitbringend eingesetzt werden kann. Dazu stellt sie ein Rahmenmodell bestehend aus den Ebenen Services, Management und IT-Architektur vor, welches alle wesentlichen Aspekte umfasst – von den Geschäftsprozessen und Datenstrukturen zur Abbildung der Community-Leistungen bis hin zur informationstechnischen Implementierung. Dieses Rahmenmodell wird am Beispiel der virtuellen Community PROCESSWORLD – einer globalen Plattform für Geschäftsprozessmanagement – verdeutlicht.
Comment:
1. GutachterIn: Prof. Dr. Dr. h.c. mult. August-Wilhelm Scheer Institution: Universität des Saarlandes, Institut für Wirtschaftsinformatik 2. GutachterIn: Prof. Dr. Joachim Zentes Institution: Universität des Saarlandes, Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Planung und Messung der Datenqualitaet in Data-Warehouse-Systemen
Helfert, Markus
Universität St. Gallen (2002)
Abstract:
Die Sicherstellung einer angemessenen Datenqualität stellt einen erfolgskritischen Problembereiche für Data-Warehouse-Systeme dar, wobei das Thema bislang sowohl in der Wissenschaft als auch in der Praxis noch immer nicht die notwendige Beachtung findet. Ausgehend von den Arbeiten im 'Total Data Quality Management Program' am Massachusetts Institute of Technology und den Arbeiten von Larry English werden in der Dissertation Managementaspekte zur Sicherstellung einer angemessenen Datenqualität untersucht sowie ein Ansatz zur Planung und Messung der Datenqualität in Data-Warehouse-Systemen entwickelt.
Comment:
1. GutachterIn: Prof. Robert Winter Institution: Universität St. Gallen 2. GutachterIn: Prof. Andrea Back Institution: Universität St. Gallen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Enterprise Application Integration (EAI) als umfassender Ansatz zur Integration heterogener betrieblicher Anwendungssysteme -- Grundlagen, Integrationsprodukte, Anwendungsbeispiele
Kaib, Michael
Universität Marburg (2002)
Abstract:
Im Zeitalter des E-Commerce erfordern dynamische Geschäftsprozesse eine integrierte unternehmensübergreifende Prozessgestaltung; gleichzeitig muss die Komplexität der Systemlandschaften in Unternehmen wegen knapper Budgets reduziert werden. Enterprise Application Integration (EAI), ein pragmatischer Lösungsansatz für diese Problematik, ermöglicht eine kontrollierte, flexible, rasch ausbaubare inner- sowie zwischenbetriebliche Integration multipler Anwendungssysteme. Gleichzeitig können durch erweiterte Integrationsprodukte heterogene betriebliche Anwendungssysteme verknüpft werden. Michael Kaib untersucht den Lösungsansatz von EAI im Kontext der unternehmensinternen und der zwischenbetrieblichen Informationsverarbeitung. Er analysiert verschiedene Integrationsprodukte anhand definierter Soll-Funktionalitäten geeigneter EAI-Werkzeuge sowie konkrete Anwendungsfälle, technologische Lösungsansätze und durch EAI erzielte ökonomische Resultate in Unternehmen.
Comment:
1. GutachterIn: Prof. Dr. Ulrich Hasenkamp Institution: Universität Marburg 2. GutachterIn: Prof. Dr. Bernd Schiemenz Institution: Universität Marburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Prozessorientiertes Wissensmanagement, Konzepte und Modellierung
Remus, U.
Universität Regensburg (2002)
Abstract:
Die Arbeit beschäftigt sich mit Konzepten des prozessorientierten Wissensmanagement (pWM), die sich im integrativen Einsatz von Konzepten aus den Disziplinen Prozess- und Wissensmanagement zeigt. Eine prozessorientierte WM-Strategie steuert die Umsetzung auf den zentralen Interventionsebenen. Kennzeichen der Prozessorganisation ist die Verknüpfung von Prozessen des WM mit den operativen Geschäftsprozessen zu einem geschlossenen Kreislauf. Neben den typischen Instrumenten des WM werden im pWM auch Instrumente des Prozessmanagement eingesetzt. Am Ende der theoretischen Untersuchung wird für typische Anwendungsszenarien die Rolle der Modellierung durch die Analyse von Fallstudien diskutiert. Die praktischen und theoretischen Ergebnisse gehen in die Beschreibung eines Modellierungsansatzes für die Modellierung im pWM ein. Dort werden für die Parameter Modellierungsmethode, -organisation und –unterstützung die wesentlichen Ausprägungen besprochen und mögliche Erweiterungen vorgeschlagen.
Comment:
1. GutachterIn: Prof. Dr. Franz Lehner Institution: Universität Regensburg 2. GutachterIn: Prof. Dr. Michael Dowling Institution: Universität Regensburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Beschaffungsmarktforschung in der digitalen vernetzten Welt - Grundlagen, Analyse und Anwendungen
Holbach, Dirk
Universität St. Gallen (2002)
Abstract:
Das Grundlagenwerk setzt sich mit den Anwendungsmöglichkeit sowie der Leistungsfähigkeit der digitalen vernetzten Welt - vornehmlich den neuen Technologien wie Internet - zur systematischen und grundlegenden Erforschung von Beschaffungsmärkten in der industriellen Beschaffung auseinander. Es bespricht einerseits systematisch theoretische Grundlagen und enthält zudem andererseits reichhaltige Fallbeispiele. Sie geben insbesondere dem Anwender in der industriellen Praxis - etwa Einkäufer und Einkaufsleiter sowie Verantwortliche für Informationstechnik in jenem Bereich - vielfältige Hinweise zu Potenzialen der neuen Technologien, um Marktforschungsarbeit und -ergebnisse als maßgebliche Grundlage einer strategisch ausgerichteten Beschaffung zu verbessern.
Comment:
1. GutachterIn: Prof. Dr. Walter Brenner Institution: Universität St. Gallen 2. GutachterIn: Prof. Dr. Günther Pernul Institution: Universität Essen 3. GutachterIn: Prof. Dr. Ludwig Mochty Institution: Universität Essen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integration von Konzepten und Technologien des Electronic Commerce in digitale Bibliotheken
Boles, Dietrich
Universität Oldenburg (2002)
Abstract:
Wesentliches Ergebnis dieser Arbeit ist ein Referenzmodell für so genannte dShop-Systeme. dShop-Systeme sind spezielle Softwaresysteme, die durch den Einsatz graphisch-interaktiver Hilfsmittel und die Integration erprobter, bewährter und Erfolg versprechender Geschäftspraktiken den Aufbau, die Verwaltung und den Einsatz von dShops (Online-Shops für digitalen Produkten) auch für Anbieter ohne tief gehende technologische und kaufmännische Fachkenntnisse unterstützen. Das Referenzmodell beschreibt den logischen Aufbau und die generelle Funktionalität solcher dShop-Systeme und dient als abstrakte Entwurfsvorlage für die Implementierung konkreter Systeme. Es kombiniert die Funktionalität und Struktur digitaler Bibliotheken und Online-Shops für materielle Produkte, berücksichtigt dabei aber die besonderen Eigenschaften digitaler Produkte und die sich daraus ergebenden besonderen Anforderungen an den Handel mit digitalen Produkten.
Comment:
1. GutachterIn: Prof. Dr. Hans-Jürgen Appelrath Institution: Universität Oldenburg, Fachbereich Informatik 2. GutachterIn: Prof. Dr.-Ing. Norbert Gronau Institution: Universität Oldenburg, Fachbereich Informatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Strategische Analyse der E-Commerce-Situation von Unternehmen -Systematik und Verfahren-
Franke, Thomas
Universität Mainz (2002)
Abstract:
Die Dissertation liefert eine Systematik, anhand derer ein Unternehmen seine aktuelle Situation im E-Commerce-Geschehen elektronischer Märkte über die Analyse des Marktes, der Kunden, des eigenen Unternehmens und der zu entwickelnden oder bereits existierenden Web Site realistisch beurteilen kann. Die Analyse dient damit zur Beantwortung der Fragen "Sollen und können wir im E-Commerce tätig werden?" und "Wie können wir im E-Commerce erfolgreich sein?". Dabei beschränkt sich die Dissertation nicht auf die theoretische Abhandlung dieser Analysebereiche, sondern unterstützt anhand der aufgeführten Prozess- und Ergebnissichten sowie zahlreicher Checklisten den Einsatz der Analyse in der unternehmerischen Praxis.
Comment:
1. GutachterIn: Prof. Dr. Herbert Kargl Institution: Johannes Gutenberg-Universität Mainz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Informationsmanagement der Post-Merger Integration
Rentrop, Christopher
Universität Duisburg-Essen (2002)
Abstract:
Die große Anzahl an Fusionen und Akquisitionen hat das externe Wachstum von Unternehmen in den Mittelpunkt aktueller Diskussionen gerückt. In diesem Zusammenhang gilt die Gestaltung der Integration als ein kritischer Erfolgsfaktor für das Gelingen der strategischen Option Externes Wachstum. Parallel mit der steigenden strategischen Bedeutung des Produktionsfaktors Information in den Unternehmen erhöht sich auch die Notwendigkeit eines konsequenten Informationsmanagements im Integrationsprozess. Im Gegensatz zu seiner praktischen Relevanz hat das Thema des Informationsmanagement der Post-Merger Integration nur geringen Eingang in die Forschung gefunden. Ziel der Arbeit ist es, diese Lücke zu schließen und die Ziele, Aufgaben sowie kritischen Erfolgsfaktoren des Informationsmanagements im Kontext der organisatorischen Integration herauszuarbeiten.
Comment:
1. GutachterIn: Prof. Dr. Peter Chamoni Institution: Universität Duisburg-Essen 2. GutachterIn: Prof. Dr. Klaus Barth Institution: Universität Duisburg-Essen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Workflow-based Process Controlling. Foundation, Design and Application of workflow-driven Process Information Systems
Mühlen, Michael Zur
Universität Münster (2002)
Abstract:
Workflow-based controlling systems provide companies with the ability to accurately measure the operational performance of business processes. Combined with data warehouse technology and operational business data, complex evaluations can be performed, that help enterprises to assess their current situation more precisely than the sole use of traditional (mainly financial) key performance indicators. The increasing maturity of workflow and data warehouse products fulfill the precondition for the implementation of workflow-driven controlling systems. In this thesis we develop a framework for the use of these metrics in a business context. We discuss the integration of workflow audit trail data into data warehouse structures and point out potential problems. Based on data from an insurance scenario we develop a process information system based on workflow data and show the applicability of our findings in a real-world context. A prototypical implementation of this process controlling system is presented. The system architecture and the underlying data model are discussed on a conceptual level, and sample evaluation methods are illustrated.
Comment:
1. GutachterIn: Prof. Dr. Jörg Becker Institution: Westfälische Wilhelms-Universität Münster 2. GutachterIn: Prof. PhD Edward A. Stohr Institution: Wesley J. Howe School of Technology Management, Hoboken, NJ, USA
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Referenzmodellierung, Gestaltung und Verteilung von Konstruktionsprozessen
vom Brocke, Jan
Universität Münster (2002)
Abstract:
Referenzmodelle können einen Schlüssel zur wirtschaftlichen Konstruktion bedarfsgerechter Informationssysteme bieten. Mit ihnen sollen vorbildliche Modellinhalte derart konstruiert werden, dass sie bei der Konstruktion von Informationsmodellen wieder verwendet werden können. Um diesem Anspruch gerecht werden zu können, sind kontinuierliche Abstimmungen zwischen Anbietern und Nachfragern möglicher Referenzmodelle vorzusehen. Der Autor entwickelt hierzu das Konzept der Verteilten Referenzmodellierung (VRM), mit dem er innovative Ansätze des Software Engineerings (z. B. Open Source- und Component Based Engineering) für die Referenzmodellierung erschließt. Als Basis schafft Jan vom Brocke theoretische Grundlagen zur Gestaltung von Konstruktionsprozessen und liefert eine differenzierte Analyse des State-of-the-Art der Referenzmodellierung. Durch Muster und Metamodelle sowie die Internetplattform referenzmodelle.de ist die Arbeit von unmittelbarem praktischen Nutzen.
Comment:
1. GutachterIn: Prof. Heinz Lothar Grob Institution: Universität Münster 2. GutachterIn: Prof. Jörg Becker Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Composite Business Software
Wintersteiger, Andreas
Universität Linz (2002)
Abstract:
Diese Arbeit entwickelt einen neuartigen Lösungsansatz in der Mitte des Lösungsspektrums zwischen Kaufen und Eigenentwicklung (Build vs. Buy). Der herbeigeführte Kompromiss wird darin argumentiert, dass jene Funktionalitäten die nicht aktiv zur Wertschöpfung beitragen in Form von Standard-Softwarekomponenten gekauft werden. Jene Funktionalitäten, die den Servicegrad beim Kunden erhöhen können, sind immer hochgradig individuell und werden neu erstellt, dies sind auch in heutiger Standardsoftware nicht ohne Eigenentwicklung realisierbar.
Comment:
1. GutachterIn: Prof. Witold Jacak Institution: Johannes Kepler Universität Linz/Institut für Systemwissenschaften 2. GutachterIn: Prof. Gustav Pomberger Institution: Johannes Kepler Universität Linz/Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Escalating Commitment als Ursache gescheiterter DV-Projekte
Hertweck, Dieter
Universität Hohenheim (2002)
Abstract:
Escalation of Commitment (EC) ist eine der häufigsten Ursache für gescheiterte DV-Projekte. Wesentliche Anzeichen von EC sind mangelnde Zugänglichkeit der Projektgruppe für abweichende Meinungen von außen sowie eine erhöhte Risikobereitschaft. Oft werden hochriskante Entscheidungen getroffen, wenn damit initial gefällte Entscheidungen retrospektiv gerechtfertigt oder finanziert werden sollen. In der Arbeit wurden die wichtigsten Ursachen und Muster von EC in Softwareprojekten aufgezeigt und untersucht, wie man ihnen begegnen kann. Die Deeskalationsmethoden basieren auf der Analyse real gescheiterter Softwareprojekte und einem daraus entwickelten Experimentalspiel, das mit angehenden IT-Führungskräften durchgeführt wurde. Es wird deutlich, dass sich Deeskalation weniger durch technische Unterstützung als durch kommunikative Techniken erreichen lässt, mit denen über Hierarchieebenen hinweg kommuniziert werden kann und durch die sich Krisensituationen strukturieren lassen.
Comment:
1. GutachterIn: Prof. Helmut Krcmar Institution: Universität Hohenheim 2. GutachterIn: Prof. Walter Habenicht Institution: Universität Hohenheim 3. GutachterIn: Prof. Harald Hagemann Institution: Universität Hohenheim
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Support of Inter-organizational Cooperation within Complex Development Processes
Jäger, Dirk
Universität Erlangen-Nürnberg (2002)
Abstract:
Often, the development of a technical product is the result of a cooperation between different independent organizations. Reasons are that knowledge from different disciplines is required or that development risks should be reduced. Managing a development process in a single organization is already difficult because of the inherent dynamics. The tasks which have to be executed depend on the results of previously executed tasks. Phases of process execution and process planning overlap. Moreover, erroneous results of a task may be discovered later, resulting in a feedback which causes the reexecution of the task. The process management system AHEAD has been developed to meet the requirements of complex development processes. In an integrated manner, AHEAD covers activities, products, and resources of a development process. Dynamic task nets are used as a visual language for describing the activities of a development process. In addition, AHEAD supports interleaved editing and execution of task nets. Inter-organizational development processes introduce additional problems and requirements for a project management systems, as autonomy of cooperating partners, hiding know-how, different responsibilities due to different roles, etc. Often, the cooperators have a client contractor relationship. The contractor determines the execution order of tasks within a process and delegates them to one or more subcontractors. Note that cooperation where both partners have equal rights can be simulated by a client contractor relationship. A centralized process management system like AHEAD, as it was before this Thesis started, is not suited for supporting inter-organizational cooperation as the autonomy of the different cooperators is not supported. Other existing systems and paradigms for distributed process management are also not suited for supporting cooperation in the form described here. They miss delegation flexibility, process monitoring, autonomy, and modification of process model instances. In this Thesis we present a new paradigm for delegating processes which supports inter-organizational cooperation properly. The systems of the cooperators are coupled to build an overall system which is able to execute a model for the distributed development process. Our paradigm is realized by an extension of the AHEAD system using a formal specification written in the graph rewriting language PROGRES. Our delegation concept and its realization are characterized by the following properties: Support for delegation of process fragments by selecting a cohesive part of the task net together with corresponding relations and delegating it to a subcontractor. AHEAD supports the selection of a subnet by using distribution information contained in the process model definition. Delegated tasks remain in the system of the contractor as local copies. Modifications of these tasks made by the subcontractor are propagated at runtime to the contractor. Thus, monitoring of delegated tasks is possible and the contractor can observe their progress. Subcontractors can refine the tasks assigned to them by introducing subtasks. The autonomous execution of process parts is possible as the context of the delegated tasks is submitted to the subcontractor as local copies. Thus, dependencies between local and non-local tasks can be resolved locally without requiring a runtime connection between the systems of contractor and subcontractors. Local copies are updated by messages which are exchanged between systems. Information hiding is ensured by only transmitting those parts of the task net which are necessary for the cooperation. The refinements a subcontractor made as well as the tasks outside the context of a delegated task are not visible to the other partner. Due to the dynamics of development processes structural changes of the delegated task net may be necessary. As we regard delegation as a contract structural modifications of the delegated task net which affect the contract can only be made after mutual agreement. We support this by offering a change protocol which allows a subcontractor to analyze and possibly reject the modifications made by the contractor. When coupling heterogenous systems, e.g. the system of the subcontractor uses a process modeling language different from that of the contractor's system, the execution semantics must be preserved when the delegated subnet is translated. Of course, such a translation is language specific. For coupling AHEAD with the commercial work flow management system COSA, such a translation has been developed. The translation supports a restricted from of delegating processes. The Thesis has been elaborated within the Collaborative Research Center (CRC) IMPROVE. IMPROVE examines inter-organizational development processes in chemical engineering. The development of a chemical plant requires the cooperation of different disciplines, as applied chemistry, chemical engineering, mechanical engineering, and process control engineering. The scenario for validating our approach was the development of a sample chemical process from the CRC. In this Thesis we demonstrate the inter-organizational cooperation needed for this sample process and present the support offered by the extended AHEAD system.
Comment:
1. GutachterIn: Prof. Dr.-Ing. Manfred Nagl Institution: RWTH Aachen 2. GutachterIn: Prof. Dr.-Ing. Stefan Jablonski Institution: Universität Erlangen-Nürnberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Supply-Chain-Management-Software für kleine und mittlere Unternehmen - Lösungsmöglichkeiten mit Componentware
Friedrich, Jörg Michael
Universität Erlangen-Nürnberg (2002)
Abstract:
Die Dissertation beleuchtet Kernprobleme von KMU im Bezug auf IV-Systeme für das Lieferkettenmanagement. Ein Kapitel erläutert bestehende Alternativen und diskutiert die von den Software-Herstellern angebotenen Lösungsmöglichkeiten. Danach wird das Komponenten-basierte System Componentware – Supply Chain Management (CW-SCM) beschrieben, das im Rahmen der Forschungsarbeiten entstand. Neben dem Aufbau des zugehörigen Rahmenwerks erklärt das Kernstück der Arbeit die Prototypen der einzelnen Module, den ersten partiellen Einsatz bei einem Pilotunternehmen und zieht einen Vergleich zu führender SCM-Standardsoftware. Ferner wird die Frage behandelt, wie sich KMU mit mehreren Supply Chains parallel verbinden können. Ein Abschnitt stellt hierfür alternative IV-Architekturen vor und zeigt ein Szenario, wie CW-SCM in diese Richtung erweitert werden kann.
Comment:
1. GutachterIn: Prof. Dr. Dr. h. c. mult. Peter Mertens Institution: Friedrich-Alexander-Universität Erlangen-Nürnberg 2. GutachterIn: Prof. Peter Klaus, D.B.A./Boston Univ. Institution: Friedrich-Alexander-Universität Erlangen-Nürnberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Generic Modelling with Graph Rewriting Systems
Münch, Manfred
RWTH Aachen (2002)
Abstract:
One of the main goals of the software engineering discipline is the provision of appropriate tools for the construction of complex and interactive software systems. A large number of tools, languages, and methods exist to cope with the problems of administering the documents, information, and processes of creating large software systems. Specification languages and methods have been developed to describe formal aspects of these complex and interactive systems. At the Department of Computer Science III at Aachen University of Technology, the specification language PROGRES (PROgrammed Graph REwriting System) has been developed in the context of the IPSEN (Interactive/Integrated/Incremental Project Support ENvironment) research project. With PROGRES it is possible to formally describe complex graph-based structures and operations on these structures. Furthermore, it is possible to generate rapid prototypes of the specified software systems as stand-alone applications. In this thesis we have used the PROGRES specification system together with the rapid prototyping framework to build tools for editing, analyzing, and interpreting visual languages. During a joint research with the Department for Process Control Engineering we have built such tools for an IEC-61131/3 compliant language which is widely used in the automation and process control industry. We have detected shortcomings of the PROGRES language for the specification of such large systems. The identified problems of the PROGRES language are mainly dealing with reusability of specified code. Many modern programming languages offer genericity for modeling reusable software units, often together with an object-oriented programming methodology which also gives users support in an easy adaptation of real-world problems to formal models. In this Thesis we have examined those programming and modeling languages and improved the PROGRES language by corresponding concepts. As being a statically typed specification language, PROGRES already has an elaborate two-level typing system. We have extended this typing system to allow for generic modeling of specification units. The PROGRES graph model revealed another drawback for the specification of visual language systems during our research. It was only possible to specify the structure of a software system as an attributed graph and (graph) transformations on this structure. However, we were not able to define any behavior of graph elements (nodes). Since a graph-based modeling approach already suggests an object-oriented specification methodology, the lack of transformation methods as part of graph elements became an obstacle for the specification of an extendible and generic visual language programming environment. Therefore, we have changed the graph model which PROGRES is based upon such that it is possible to assign a behavior to graph elements. Furthermore, the effects of these changes on the rapid prototyping framework are discussed. The PROGRES language and environment is very often used for rapid prototyping purposes. A very elaborate and flexible Java-based rapid prototyping environment UPGRADE was being developed at the Department of Computer Science III. In many collaborative research projects, as e.g. the IMPROVE project, we work with PROGRES and UPGRADE. Therefore, it was an important issue to ensure platform independence of the specified software systems. This is the reason why the prototype environment has been implemented in Java. In this thesis we describe the tighter integration of PROGRES specifications and the prototyping environment by the generation of Java code from a specification. The final step for gaining a complete platform independence is the adaptation of the underlying database system on which PROGRES and UPGRADE are based. This is out of scope of this thesis, though.
Comment:
1. GutachterIn: Prof. Dr.-Ing. Manfred Nagl Institution: RWTH Aachen 2. GutachterIn: Prof. Dr. Andreas Schürr Institution: Technische Universität Darmstadt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Wirtschaftsinformatik der "langen Frist"
Eversmann, Ludger
Universität Hamburg (2002)
Abstract:
Aus der bisherigen, mittelfristigen Betrachtungsperspektive sind die Darstellungen von Gegenstand, Wirkungskreis und Informationskreis der Wirtschaftsinformatik meist am Informationsbedarf von Industriebetrieben orientiert. Das Umfeld bilden die Anforderungen der neuen Markt-Dynamik einerseits und die sich entwickelnden Möglichkeiten der neuen Technologien andererseits. Ziel ist die Optimierung integrierter Informationssysteme entsprechend der wettbewerbsstrategischen Orientierung von Unternehmen. In meiner Arbeit wird das vorherrschende Selbstverständnis der deutschsprachigen Wirtschaftsinformatik in Frage gestellt, und es werden normative Grundlagen einer langfristigen Programmatik für die Wirtschaftsinformatik entwickelt. Es geht hier insbesondere darum, das von P. Mertens 1995 vorgestellte Wissenschaftsziel "sinnhafte Vollautomation des Unternehmens" auf der Grundlage der konstruktiven kulturalistischen Wissenschaftstheorie auf seine lebensweltliche Begründetheit hin zu untersuchen.
Comment:
1. GutachterIn: Prof. Peter Schefe Institution: Universität Hamburg, Fachbereich Informatik 2. GutachterIn: Prof. Arno Rolf Institution: Universität Hamburg, FB Informatik 3. GutachterIn: Prof. Rüdiger Valk Institution: Universität Hamburg, FB Informatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Auswirkungen des Electronic Commerce auf juristische Fachverlage - Branchenanalyse und empirische Überprüfung
Schüngel, Martin
Universität Münster (2002)
Abstract:
Juristische Fachverlage gehören zu den Branchen, deren Kerngeschäft digitalisierbar ist und im Internet nach neuen Regeln betrieben werden könnte. Nicht nur die Technologie und ihre Anwendung befindet sich aber noch in statu nascendi, sondern auch die neuen Rezeptionsgewohnheiten der Nutzer – ganz zu schweigen von den Geschäftsmodellen. Es wird untersucht, wie sich die Branchenstruktur juristischer Fachverlage ändern wird und welche Ausgestaltungen von Geschäftsmodellen sich eignen, um Chancen des Electronic Commerce zu nutzen und seinen Risiken zu begegnen. Hierzu werden bestehende Ansätze des Electronic Commerce erfaßt und gebündelt und im Hinblick auf ihre Eignung für juristische Fachverlage interpretiert, um zukünftige Entwicklungen ableiten zu können. Die theoretisch gewonnenen Erkenntnisse werden abschließend mittels einer empirischen empirischen Analyse überprüft. Hierzu wurde eine umfangreiche Delphi-Studie durchgeführt.
Comment:
1. GutachterIn: Prof. Stefan Klein Institution: Westfälische Wilhelms-Universität Münster 2. GutachterIn: Prof. Thomas Hoeren Institution: Westfälische Wilhelms-Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Content Management Anwendungen
Ehlers, Lars
Universität Münster (2002)
Abstract:
Content Management Anwendungen stellen für Unternehmen die Chance einer attraktiven und einfach zu pflegenden Präsenz im Internet dar. Umfangreiche Inhalte auf den Web-Seiten und regelmäßige Aktualisierungen lassen sich so realisieren. Content Management Systeme (CMS) sind dabei die Technologische Basis zum Aufbau dieser Anwendungen. Die Dissertatiom verdeutlicht wichtige Internet-Grundlagen und die Eigenschaften von Content Management Systemen. Darauf aufbauend werden umfangreiche Gestaltungsempfehlungen für die fachkonzeptionelle Modellierung von Content Management Anwendungen geliefert.
Comment:
1. GutachterIn: Prof. Dr. Jörg Becker Institution: Universität Münster 2. GutachterIn: Prof. Dr. Herbert Kuchen Institution: Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Economics of Standards in Information Networks
Weitzel, Tim
Universität Frankfurt a.M. (2002)
Abstract:
Standards play a prominent role in systems characterized by interaction. In information systems, standards provide for compatibility and are a prerequisite for collaboration benefits. Generally speaking, standards constitute networks. In this work, a standardization framework based on an analysis of deficiencies of network effect theory and a game theoretic network equilibrium analysis is developed. Fundamental determinants of diffusion processes in networks (e.g. network topology, installed base) are identified and incorporated into a computer-based simulation model. As a result, typical network behavior (specific diffusion patterns) can be explained and many findings from traditional network effect theory can be described as special cases of the model at particular parameter constellations (e.g. low price, high density). Based upon this, solution strategies for standardization problems are developed, and a methodological path towards a unified theory of networks is proposed.
Comment:
1. GutachterIn: Prof. Wolfgang König Institution: J. W. Goethe-Universität
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Strategische eBusiness-Planung - Entwicklung eines Vorgehensmodells
Thonabauer, Claudia
Universität Linz (2002)
Abstract:
Seit Mitte der 1990er Jahre, mit der zunehmenden Verbreitung des Internets, wächst der von mehreren Seiten auf Unternehmen ausgeübte Druck, in die Infrastruktur für Electronic Business zu investieren. Unternehmen sehen sich dazu veranlasst, Investitionen im Bereich eBusiness zu tätigen, unabhängig davon, ob diese aus ihrer Unternehmensstrategie ableitbar sind. Um österreichische Unternehmensvertreter auf die Bedeutung von eBusiness aufmerksam zu machen und ihnen den Einstieg zu erleichtern, startete deren Interessensvertretung zahlreiche Informations- und Förderaktionen.
Comment:
1. GutachterIn: Prof. Lutz Jürgen Heinrich Institution: Johannes Kepler Universität Linz/Institut für Wirtschaftsinformatik 2. GutachterIn: Prof. Gustav Pomberger Institution: Johannes Kepler Universität Linz/Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modellierung und Ausführung von E-Business-Prozessen mit XML-Netzen
Lenz, Kirsten
Universität Frankfurt a.M. (2002)
Abstract:
Aufgrund der starken Zunahme internetbasierter E-Business-Aktivitäten werden Sprachen für die Modellierung von E-Business-Prozessen immer wichtiger. Die für E-Business-Prozesse relevanten Dokumente können mit Hilfe der Extensible Markup Language (XML) strukturiert und auf elektronischem Wege ausgetauscht werden. Bei der Modellierung sollen die realen E-Business-Prozesse in einer für den Anwender verständlichen, aber –im Gegensatz zur natürlichsprachlichen Beschreibung– unmissverständlichen Notation, abgebildet werden. Darüber hinaus sind die Analyse, die (Um-)Gestaltung und die automatisierte Ausführung der Prozesse von Bedeutung. So genannte XML-Netze, eine Variante höherer Petri-Netze, ermöglichen die integrierte Modellierung von E-Business-Prozessen und prozessrelevanten XML-Dokumenten und können zur Ablaufsteuerung durch ein Workflow-Managementsystem eingesetzt werden.
Comment:
1. GutachterIn: Prof. Andreas Oberweis Institution: J.W. Goethe-Universität Frankfurt/Main 2. GutachterIn: Prof. Gerriet Müller Institution: J.W. Goethe-Universität Frankfurt/Main 3. GutachterIn: Prof. Dieter Nautz Institution: J.W. Goethe-Universität Frankfurt/Main
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Bilaterale Preisverhandlungen von Software-Agenten - Ein Modell und System zur Analyse des marktplatzspezifischen Verhandlungsspielraums
Sackmann, Stefan
Universität Freiburg (2002)
Abstract:
Allgegenwärtigkeit, Miniaturisierung und der mobile Einsatz von Informationstechnologie verändern das Erscheinungsbild heutiger Informationssysteme und eröffnen neue Möglichkeiten wirtschaftlicher Transaktionen. Durch Software-Agenten lassen sich einzelne Transaktionsphasen automatisieren, wobei die Erkennung des relevanten marktlichen Umfeldes eine wesentliche Voraussetzung ist. In der Arbeit wird die automatische Erkennung des für einen Marktplatz typischen Verhandlungsverhaltens bei bilateralen Preisverhandlungen analysiert und ein Messverfahren für dessen Quantifizierung entwickelt. Mit einem Multi-Agenten-System durchgeführte Simulationen zeigen, dass es Software-Agenten möglich ist, sich dem marktplatztypischen Verhandlungsverhalten auf einem unbekannten elektronischen Marktplatz heuristisch anzupassen. Damit wird ein wertvoller Beitrag für den Einsatz von Software-Agenten auf realen elektronischen Märkten und für die durchgängige Automatisierung von Transaktionen geleistet.
Comment:
1. GutachterIn: Prof. Dr. Günter Müller Institution: Univeristät Freiburt, Institut für Informatik und Gesellschaft, Abt. Telematik 2. GutachterIn: Prof. Dr. Franz Schober Institution: Universität Freiburg, Institut für Allgemeine Wirtschaftsforschung, Abt. Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Case-Based Reasoning auf der Grundlage Relationaler Datenbanken
Pfuhl, Markus
Universität Marburg (2003)
Abstract:
Case-Based Reasoning oder Fallbasiertes Schließen als Teilbereich der Künstlichen Intelligenz wurde in den letzten Jahren in einer Vielzahl kommerzieller und forschungsnaher Anwendungen eingesetzt. Das Anwendungsspektrum reicht von klassischen Expertensystemen bis hin zu Produktkonfiguratoren im Internet. Allerdings unterliegen die bestehenden Systeme immer noch Restriktionen bei der Verarbeitung von Textdokumenten und bei der Integration in bestehende Informationsinfrastrukturen. Am Beispiel der strukturierten Suche in Wirtschaftsnachrichten stellt Markus Pfuhl eine alternative Vorgehensweise vor, die eine Verarbeitung großer Dokumentenmengen ermöglicht und zugleich mit der Verwendung Relationaler Datenbanken auf einem weitverbreiteten Standard der Datenbanktechnolgie basiert. Abschließend untersucht er die Strukturierung von Textdokumenten, denn ihr kommt auch bei Fragestellungen des Wissensmanagements eine wachsende Bedeutung zu.
Comment:
1. GutachterIn: Prof. Dr. Paul Alpar Institution: Philipps-Universität Marburg 2. GutachterIn: Prof. Dr. Karl-Heinz Fleischer Institution: Philipps-Universität Marburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Referenzmodell für IT-Service-Informationssysteme
Probst, Christian
Universität Münster (2003)
Abstract:
IT-Service-Informationssysteme werden in Unternehmen zur Unterstützung des IT-Service-Managements eingesetzt. Sie sind unabdingbare Voraussetzung, um z.B. Entwicklung, Einführung, Betrieb und Stilllegung von IT-Services effektiv und effizient zu realisieren. Hierfür müssen neben der Komplexität und Kompliziertheit der Komponenten eines IT-Services sowohl die hohe Innovationsgeschwindigkeit in der IT als auch eine variable Leistungstiefe flexibel und ökonomisch beherrscht und durch geeignete Systeme unterstützt werden. Obschon heute de facto jede größere Organisation essenziell von IT-Dienstleistungen abhängig ist, kann ein beachtliches Theoriedefizit hinsichtlich der Gestaltung von IT Service-Informationssystemen festgestelltwerden. Hier setzt die Arbeit an, in der Literatur und bestehende Ansätze der Referenzmodellierung im Umfeld des IT-Service-Managements analysiert und daraus praktische Gestaltungsempfehlungen in Form eines ganzheitlichen Ordnungsrahmens abgeleitet werden.
Comment:
1. GutachterIn: Prof. Dr. Jörg Becker Institution: Westfälische Wilhelms-Universität Münster 2. GutachterIn: Prof. Dr. Herbert Kuchen Institution: Westfälische Wilhelms-Universität Münster
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Erfolgspotenzial elektronischer B2B-Marktplätze: Theorie - Empirie - Fallstudien
Rätz, Diana
Universität Bern (2003)
Abstract:
Was versteht man unter elektronischen B2B-Marktplätzen? Was unterscheidet sie von traditionellen Marktplätzen? In welcher Weise lassen sich elektronische B2B-Marktplätze geeignet gruppieren? Wie können sie langfristig einen Erfolg erzielen? Diese und weitere Fragen stehen im Mittelpunkt dieses Buches. Zunächst erfolgt eine Darstellung, Analyse und Typologisierung der vielfältigen Erscheinungsformen elektronischer B2B-Marktplätze. Die hieraus gewonnenen Erkenntnisse bilden die Basis für die Entwicklung eines Hypothesengerüsts, welches insbesondere Konzepte des strategischen Managements integriert. Mittels des Hypothesengerüsts werden Erfolgsfaktoren identifiziert, welche das Erfolgspotenzial elektronischer B2B-Marktplätze in entscheidendem Masse beeinflussen. Fünf Fallstudien, namentlich Covisint, ChemConnect, OLMeRO, GoIndustry und fairpartners.com, dienen im weiteren Verlauf einer Beurteilung des entwickelten Hypothesengerüsts.
Comment:
1. GutachterIn: Prof. Joachim Griese Institution: Universität Bern, Institut für Wirtschaftsinformatik 2. GutachterIn: Prof. Walter Brenner Institution: Universität St. Gallen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Prozessorientierte Organisation des Metadatenmanagements für Data-Warehouse-Systeme
Auth, Gunnar
Universität St. Gallen (2003)
Abstract:
Ein zielgerichtetes, nutzenorientiertes Management von Metadaten für das Data Warehousing erfordert ein hohes Maß an Abstimmung unter den beteiligten Personen bzw. Organisationseinheiten. Um diese Abstimmungsvorgänge effektiv und effizient zu gestalten, ist es erforderlich, explizite Prozesse für den Umgang mit Metadaten zu definieren. Die vorliegende Dissertation beschreibt ein konzeptionelles Prozessmodell für die Aufbereitung und Bereitstellung von Metadaten, das auf den Nutzenpotentialen des Metadatenmanagements für das Data Warehousing basiert. Im ersten Teil der Arbeit wird zunächst Ordnung in das Wirrwarr der Meta-Begriffe gebracht, um so eine Grundlage für eine Kategorisierung von Metadaten zu schaffen. Aus den identifizierten Metadaten-Kategorien werden sodann Nutzenpotentiale für das Data-Warehousing abgeleitet, die wiederum den Ausgangspunkt des nutzenorientierten Ansatzes bilden. Ausgehend von vier ausführlich dokumentierten Fallstudien zum Metadatenmanagement bei Unternehmen der Finanzdienstleistungsbranche im zweiten Teil beschreibt der dritte Teil den methodenbasierten Entwurf eines umfassenden Organisationskonzepts für das Metadatenmanagement im Data Warehousing. Das entworfene Modell definiert Prozesse, Teilprozesse und Aufgaben und ordnet diese den zugehörigen Aufgabenträgern bzw. Rollen zu. Die Komplexität des Modells wird durch eine dreistufige Modell-Hierarchie bewältigt. Sämtliche Prozesse sind in Form von UML-Aktivitätsdiagrammen dokumentiert und über ein Metamodell in das Common Warehouse Metamodel (CWM) der OMG integriert.
Comment:
1. GutachterIn: Prof. Robert Winter Institution: Uni St. Gallen / Institut für Wirtschaftsinformatik 2. GutachterIn: Prof. Hubert Österle Institution: Uni St. Gallen / Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Methodology, Tools and Case Studies for Ontology-based Knowledge Management
Sure, York
Universität Karlsruhe (2003)
Abstract:
The contributions of this thesis cover a broad spectrum of aspects related to practical ontology based knowledge management. The thesis is divided into three main parts: (1) Methodology: The novel On-To-Knowledge Methodology for introducing and maintaining ontology based knowledge management (KM) applications is presented which includes a detailed description of steps necessary to develop and employ ontologies. (2) Tool support: Numerous specialized tools that support methodology. Taken together, the On-To-Knowledge Methodology and its accompanying tool support provide an advanced framework for engineering ontology based applications that is highly re-usable for different kinds of domains. (3) Case studies: Methodology and tools were applied and evaluated in several case studies. All case studies provide real world experiences and show different aspects of ontology based knowledge management applications.
Comment:
1. GutachterIn: Prof. Rudi Studer Institution: Universität Karlsruhe / Institut AIFB 2. GutachterIn: Prof. Karl-Heinz Waldmann Institution: Universität Karlsruhe / Institut WIOR 3. GutachterIn: Prof. Robert Meersman Institution: Vrije Universiteit Brussel / STAR Lab
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Architekturen Workflow-gestützter PPS-Systeme - Referenzmodelle für die Koordination von Prozessen der Auftragsabwicklung von Einzel- und Kleinserienfertigern
Hansmann, Holger
Universität Münster (2003)
Abstract:
Ergebnis dieser Arbeit sind Referenzarchitekturen Workflow-gestützter PPS-Systeme für die industrielle Auftragsabwicklung, die in der Lage sind, bestehende Koordinationsdefizite wie die mangelnde Anpassbarkeit und Flexibilität von PPS-Systemen sowie die unzureichende Prozesseffizienz in der Auftragsabwicklung zu beheben. Dabei wird eine Fokussierung auf die Anforderungen von Einzel- und Kleinserienfertigern vorgenommen. Der Autor sieht neben der technischen Integration von Workflow- und PPS-Fachkomponenten auch eine fachlich-semantische Integration von Koordinationsmechanismen für die Prozessgestaltung, Planung, Steuerung und Kontrolle vor. Hierfür werden drei Architekturvarianten betrachtet ("lose Kopplung", "Workflow-einbeziehendes" und "Workflow-basiertes" PPS-System), die sich durch eine unterschiedliche Integrationstiefe und damit durch einen unterschiedlichen Anteil redundanter Mechanismen auszeichnen, die zu fachlichen Konflikten bei der Prozesskoordination führen können.
Comment:
1. GutachterIn: Prof. Jörg Becker Institution: Westfälische Wilhelms-Universität Münster, Institut für Wirtschaftsinformatik 2. GutachterIn: Prof. Gottfried Vossen Institution: Westfälische Wilhelms-Universität Münster, Institut für Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Methodenentwicklung in Wirtschaft und Verwaltung
Greiffenberg, Steffen
TU Dresden (2003)
Abstract:
Das Konzept der Methode wird bereits seit einigen Dekaden in der Wirtschaftsinformatik und Informatik diskutiert. Es wird seit der Vorstellung seiner ersten Vertreter in der Systementwicklung dazu verwendet, die Gestalter von Informationsystemen bei ihrer Arbeit zu unterstützen und zu führen. In dieser Arbeit bildet das zentrale Hilfsmittel der Modellierung und deren methodische Unterstützung den für die Wirtschftsinformatik typischen Betrachtungsgegenstand. Modelle werden dabei als Ergebnis einer Konstruktionsleistung aufgefasst, die es mit geeigneten Techniken der Repräsentation und einer Beschreibung des Entwicklungsprozesses zu ermöglichen gilt. Die Selbstverständlichkeit, mit der als "state of the art" ein ingenieurmäßiges Herangehen bei der Modellbildung gefordert wird, wird in dieser Arbeit auf eine übergeordnete Ebene übertragen. Somit stellt diese Arbeit eine neue Methode der Analyse, Entwicklung und Anwendung von Methoden vor.
Comment:
1. GutachterIn: Prof. Werner Esswein Institution: TU Dresden / Systementwicklung 2. GutachterIn: Prof. Georg Herzwurm Institution: Universität Stuttgart / Allgemeine Betriebswirtschaftslehre und Wirtschaftsinformatik II 3. GutachterIn: Prof. Vorname European Business School Institution: European Business School / Center for Information Management
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Güterklassifikation als semantisches Standardisierungsproblem
Hepp, Martin
Universität Würzburg (2003)
Abstract:
Die maschinengeeignete Kodierung von betriebswirtschaftlichen Sachverhalten ist zwingend notwendig, wenn Handelsprozesse an Computersysteme delegiert werden. Während herstellerbezogene Kodierungen für zahlreiche Warenarten bereits seit längerer Zeit existieren, befinden sich generische, herstellerunabhängige Standards für Produkte und Dienstleistungen erst im Aufbau. Die Arbeit analysiert die Bedeutung einer herstellerneutralen, maschinengeeigneten Sprache für die Wirtschaftsinformatik und inwieweit vorhandene Ansätze wie eCl@ss, UNSPSC und eOTD als Grundlage dafür dienen können. Aus der Analyse der linguistischen Dynamik exemplarischer Branchen wird die Notwendigkeit abgeleitet, solche Standards teilautomatisiert zu pflegen, und ein Prototyp beschrieben, der dies mit Hilfe wissensbasierter Verfahren leistet.
Comment:
1. GutachterIn: Prof. Rainer Thome Institution: Universität Würzburg 2. GutachterIn: Prof. Marcus Spies Institution: LMU München
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Performance Measurement von wissensintensiven Geschäftsprozessen als Beitrag für das Controlling im Wissensmanagement
Kalmring, Dirk
Universität Marburg (2003)
Abstract:
Der Autor entwickelt einen prozessorientierten Ansatz, der Wissensziele aus Unternehmungszielen ableitet und der generische Wissensprozesse zur Unterstützung von Geschäftsprozessen definiert. Als methodisches Rüstzeug wird das Speech-Act-Modell gewählt. Der Ansatz besitzt eine Reihe von Vorteilen, wie z.B. die Berücksichtigung unterschiedlicher Wissensarten oder eine Methodenneutralität hinsichtlich des Informationsmanagements, der organisatorischen Gestaltung und des Personalmanagements. Er liefert ein Modell zur Identifikation wissensintensiver Geschäftsprozesse, spezifiziert die Verknüpfung von Geschäfts- und Wissensprozessen, operationalisiert ein Performance Measurement auf drei Betrachtungsebenen, ermöglicht eine Evaluation des wirtschaftlichen Nutzens von Wissensmanagementmaßnahmen und stellt den Bezug zum Lernen der ganzen Organisation her.
Comment:
1. GutachterIn: Prof. Dr. Paul Alpar Institution: Philipps-Universität Marburg 2. GutachterIn: Prof. Dr. Jochen Röpke Institution: Philipps-Universität Marburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Referenzmodellierung für Buchverlage: Prozess- und Klassenmodelle für den Leistungsprozess
Tzouvaras, Antonios
Universität Göttingen (2003)
Abstract:
Medienunternehmen werden durch moderne IuK-Technologien verstärkt vor neue Herausforderungen gestellt. Auch Buchverlage, bei denen z. B. das Internet als Distributionskanal oder Print-on-Demand Einzug halten, können sich solchen Strukturveränderungen nicht entziehen. Vor diesem Hintergrund ist die IV-Unterstützung der Leistungsprozesse kritisch zu hinterfragen und in Teilen neu zu definieren. Referenzmodelle haben sich hierzu bewährt, lagen aber für den vorliegenden Kontext bislang nicht vor. Daher ist es Ziel, ein Referenzmodell für den Leistungsprozess eines Buchverlags zu konstruieren. Hierzu wird ein Rahmenkonzept zur Gestaltung von Medien-Informationssystemen entwickelt. Daneben erfolgt eine Darstellung der Branchenspezifika und neuer Technologien sowie ihrer ökonomischen Implikationen. Von diesem Ausgangspunkt werden Aktivitäts- und Klassendiagramme entwickelt. Die theoriegeleiteten Hypothesen und Gestaltungsempfehlungen werden mit Praxisbeispielen angereichert und geprüft.
Comment:
1. GutachterIn: Prof. Matthias Schumann Institution: Universität Göttingen, Institut für Wirtschaftsinformatik, Abt. II 2. GutachterIn: Prof. Jörg Biethahn Institution: Universität Göttingen, Institut für Wirtschaftsinformatik, Abt. I
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Computergestützte Planung, Simulation und Interpretation durch regelbasierte Systeme im Finanzbereich der Unternehmung
Billmeyer, Andreas
Universität Erlangen-Nürnberg (2003)
Abstract:
Rechnergestützte Finanzplanung ist eine Aufgabe, mit der sich (in unterschiedlicher Komplexität) jedes Unternehmen auseinander setzen muss. Dabei reicht es in der Regel nicht, für die Vorhersage der künftigen Ertrags- und Vermögenslage von Wunschvorstellungen auszugehen oder nur punktuelle Schätzungen abzugeben. Ein wirklich flexibles Unternehmen bezieht Risiken der zukünftigen Entwicklung in seine Planungen mit ein und sorgt dafür, dass es auch unter ungünstigen Verhältnissen überlebensfähig bleibt. Solche "Was-wäre-wenn"-Fragestellungen bilden, zusammen mit der Analyse der Wechselwirkungen in und zwischen Unternehmen, den Kern der Simulationsrechnungen in vorliegender Arbeit. Daneben gilt es, Barrieren abzubauen, die potenzielle Benutzer solcher Systeme vielleicht derzeit noch von einem gewinnbringenden Einsatz abhalten mögen. Dazu bieten der regelbasierte Ansatz sowie die Benutzer- und Rollenmodellierung in der Wirtschaftsinformatik vielversprechende Ansätze.
Comment:
1. GutachterIn: Prof. Peter Mertens Institution: FAU Erlangen-Nürnberg 2. GutachterIn: Prof. Wolfgang Gerke Institution: FAU Erlangen-Nürnberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Analyse der Leistungserstellung und des Leistungsabsatzes von Mobilfunk Geschäftsmodellen
Neudorfer, Reinhard
Universität Graz (2004)
Abstract:
Die Diskrepanz zwischen den Erwartungen und der eingetroffenen Realität bei der Vermarktung innovativer Technologien und Anwendungen zeigt, wie schwer die Einschätzbarkeit der Übernahme bei Mobilfunk Geschäftsmodellen ist. Aufgrund der verstärkten Tendenz, hin zum Outsourcing ist ein neuer Akteur, der Wireless Application Service Provider, im Umfeld von Mobilfunk Geschäftsmodellen entstanden. Das Risiko des Mobilfunkbetreibers durch die Kooperation mit dem WASP wurde mit Hilfe der Principal Agent Theory und der Transaktionskostentheorie analysiert. Für die Risikoanalyse des Leistungsabsatzes wurden die zentralen Aussagen der Theorie des wahrgenommenen Risikos, die Adoptions-, Diffusions- und der Akzeptanztheorie herangezogen. Die um die Nutzendimension erweiterte Theorie des wahrgenommenen Risikos wurde in den Kontext der Adoptionstheorie gesetzt, um unter Verfolgung einer deduktiv-nomologischen Vorgehensweise die Adoptionswahrscheinlichkeit für Mobilfunk Technologien zu erklären.
Comment:
1. GutachterIn: Prof. Otto Petrovic Institution: Karl-Franzens-Universität Graz 2. GutachterIn: Prof. Rauch Wolf Institution: Karl-Franzens-Universität Graz 3. GutachterIn: Prof. Gerhard Grossmann Institution: Karl-Franzenz-Universität Graz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Kommunikationsmanagement in Veränderungsprojekten - Eine Methode für die Einführung digitaler Produkte
Buehrer, Roger
Universität St. Gallen (2004)
Abstract:
Die Einführung von Innovationen in Unternehmen zieht Veränderungen der Prozesse, der Organisation, der eingesetzten Hilfsmittel und der erbrachten Leistungen und Produkte nach sich und generiert neue Anforderungen. Nach Erkenntnissen aus Praxis und Theorie scheitern viele Veränderungsprojekte an der mangelnden Akzeptanz durch die Betroffenen. Die Methode versteht sich als ein Plug-in für das Projektmanagement und integriert Erkenntnisse aus verschiedenen Disziplinen. Ihr Ziel ist die zielgruppenorientierte situationsbezogene Kommunikation von Veränderungen zu systematisieren und somit den „Change of Mind-Sets“ in den Köpfen der Betroffenen zu beschleunigen. Sie wird als eine prozessorientierte Vorgehensweise verstanden, welche dem Top-Management, der Projektleitung und einem Kommunikationsstab hilft, Ineffizienzen, die durch Widerstand der Betroffenen bei der Implementierung von Innovationen entstehen, mit Kommunikation zu den Betroffenen zu reduzieren.
Comment:
1. GutachterIn: Prof. Dr. Beat Schmid Institution: Universität St. Gallen, Institut für Medien- und Kommunikationsmanagement 2. GutachterIn: Prof. Dr. Markus Meier Institution: Eidgenössische Technische Hochschule Zürich, Zentrum für Produkt-Entwicklung
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Enhancing Performance in Virtual Knowledge Networks - A Community Engineering Approach
Schrott, Gregor
Universität Frankfurt a.M. (2004)
Abstract:
With the transformation from an industrial to an information-based society, corporations are required more than ever to utilize all their employees' knowledge to keep up with market demands. Therefore, informal networks and communities are becoming the major information resource in addition to handbooks and document management systems containing highly structured information. Many technically sophisticated systems for content management have been designed to assist knowledge workers, but in most cases they fail to meet expectations. This book presents a solution to assist network organizers in designing informal knowledge networks by introducing a model and a software toolset to improve decision support. The model, based on findings from computational organization theory and social network analysis, extends the existing explanatory research, and allows for developing strategies of community engineering and anticipating the potential impacts on organizational performance.
Comment:
1. GutachterIn: Prof. Dr. Wolfgang König Institution: Johann Wolfgang Goethe-Universität Frankfurt 2. GutachterIn: Prof. Dr. Müller Gerriet Institution: Johann Wolfgang Goethe-Universität Frankfurt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Multiattribute Auctions in Electronic Procurement: Theory and Experiment
Strecker, Stefan
Universität Karlsruhe (2004)
Abstract:
Mehrattributive Auktionen sind elektronische Bietverfahren auf der Basis mehrdimensionaler Gebote, die zur Beschaffung heterogener Güter eingesetzt werden können. In der vorliegenden Dissertation werden die englische Auktion und die Vickrey-Auktion auf den Fall dreidimensionaler Gebote adaptiert und am Beispiel der Beschaffung eines einzelnen, unteilbaren Gutes mit zwei qualitativen Eigenschaften untersucht. Mit Hilfe einer speziell entwickelten Software wird ein computer-basiertes ökonomisches Laborexperiment durchgeführt. Die Studie zeigt, dass die mehrattributive englische Auktion im Vergleich zur mehrattributiven Vickrey-Auktion sowohl zu einer höheren allokativen Effizienz als auch zu einem höheren Nutzen des Einkäufers führt. Die Offenlegung der Bewertungsfunktion des Bietnehmers führt in der mehrattributiven englischen Auktion zu einer höheren allokativen Effizienz und zu einem höheren Gewinn der Lieferanten.
Comment:
1. GutachterIn: Prof. Dr. Christof Weinhardt Institution: Universität Karlsruhe (TH) 2. GutachterIn: PD Dr. Karl-Martin Ehrhart Institution: Universität Karlsruhe (TH)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Zielahbängige Erfolgsanalyse virtueller B2B-Marktplätze
Zumpe, Sabine
TU Dresden (2004)
Abstract:
Die Disseration erarbeitet, gestützt auf eine empirische Befragung, die Ziele von Betreibern viruteller B2B-Marktplätze und formuliert in Abhängigkeit gebildeteter Erfolgswerte für die Handelsplattformen eine zielabhängige Erfolgsstrategie. Neben der eigentlichen Erfassung der Ziele von Marktplätzen wird eine Hierachie aufgestellt, welche den Betreibern als Kontroll- und Steuerungsinstrument dient. Durch den Einsatz von multivariaten Verfahren (Clusteranalyse, Multidimensionale Skalierung) werden die Marktplätze in homogene Gruppen sortiert, um genauere Kenntnisse über gewählte Strategien, angestrebte Ziele und erreichte Ergebnisse in Form von Erfolgswerte zu erhalten. Die Analyse der Ursachen für niedrige Erfolgswerte einzelner Strategien bildet zusammen mit den Kenntnissen der Erfolgsgaranten die Grundlage für die Explikation der Erfolgsstrategie für die Betreiber virtueller Marktplätze.
Comment:
1. GutachterIn: Prof. Werner Esswein Institution: TU Dresden, Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung 2. GutachterIn: Prof. Horst Mayer Institution: TU Dresden, Lehrstuhl für Betriebswirtschaftslehre, insb. Wirtschaftsprüfung und Steuerlehre 3. GutachterIn: Prof. Otto Opitz Institution: Universität Augsburg, Institut für Statistik und mathematische Wirtschaftstheorie
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modellgestütztes Dienstleistungsbenchmarking
Grieble, Oliver
Universität des Saarlandes (2004)
Abstract:
Die vorliegende Arbeit basiert auf der These, durch Benchmarking latent vorhandenes Ver-besserungspotenzial in Dienstleistungsunternehmungen aufdecken und für die Leistungsoptimierung erschließen zu können. Der Einsatz entsprechender Modellierungsmethoden erweitert diesen Ansatz, indem er dessen Konkretisierung und Umsetzung unterstützt. Die Zielsetzung der Arbeit besteht somit in der Entwicklung und Beschreibung eines ganzheitlichen Konzepts zum Benchmarking von Dienstleistungen, erweitert und gestützt durch Methoden der Informationsmodellierung. Auf Basis eines Diskurses der begrifflichen Grundlagen in den Forschungsfeldern Benchmarking, Dienstleistung und Modellierung leitet der Verfasser ein Rahmenkonzept ab, das zum einen die Analyse einzelner konstitutiver „Aspekte des Benchmarkings“, zum anderen deren Integration zur Methode des „Modellgestützten Dienstleistungsbenchmarkings“ ermöglicht.
Comment:
1. GutachterIn: Prof. August-Wilhelm Scheer Institution: Universität des Saarlandes 2. GutachterIn: Prof. Joachim Zentes Institution: Universität des Saarlandes
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Market Engineering - A Structured Design Process for Electronic Markets
Neumann, Dirk
Universität Karlsruhe (2004)
Abstract:
Das Design elektronischer Märkte beeinflusst das Handelsgeschehens und damit auch die Erfolgschancen des Markts. In der Theorie existiert derzeit kein ganzheitlicher Ansatz zur Unterstützung des Design elektronischer Märkte. Die vorliegende Arbeit leistet im Bereich Market Engineering – verstanden als ganzheitliche Gestaltung von elektronischen Märkten – einen Beitrag zur Strukturierung des neuen Feldes und zur Ableitung geeigneter Designprozesse und -methoden. Zur Strukturierung des Bereiches Market Engineering wird ein Bezugsrahmen erstellt, der die wesentlichen Designparameter und Rahmenbedingungen erfasst. Aus dem Bezugsrahmen wird ein Prozessmodell abgeleitet, welches die Marktgestaltung in mehrere Schritte unterteilt. Für die zentralen Schritte der Konzeption und des Entwurfs werden adäquate Methoden entwickelt. Das Design der Handelsregeln wird dabei als parametrisches Designproblem dargestellt, wobei ökonomische Theorien in Regelwissen abgebildet werden.
Comment:
1. GutachterIn: Prof. Dr. Christof Weinhardt Institution: Universität Karlsruhe (TH), Wirtschaftswissenschaften 2. GutachterIn: Prof. Dr. Siegfried Berninghaus Institution: Universität Karlsruhe (TH), Wirtschaftswissenschaften
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Application Service Providing - Entwicklung eines Modells zur Qualitätsmessung
Riedl, René
Universität Linz (2004)
Abstract:
Der Application Service Providing (ASP)-Markt entwickelt sich nicht gemäß den Prognosen vieler Marktforscher. Ausgehend von der These, dass Qualitätsunsicherheit im Sinne des Nobelpreisträgers George Akerlof eine Ursache der zögerlichen Marktentwicklung ist, wird ein Messmodell vorgestellt, das potenzielle Kunden bei der Bestimmung von ASP-Qualität und ihrer Entscheidung über den Einsatz von ASP-Lösungen unterstützt. Das Messmodell verwendet ein multiattributives Messverfahren. Am Beispiel von Fallstudien wird erläutert, wie die Qualitätsbestimmung erfolgt. Weiters wird über die Befunde der wissenschaftlichen Begleituntersuchung, die Aufschluss über die Praxistauglichkeit des Messmodells geben, berichtet. Die Praxistauglichkeit wird unter anderem anhand von Testgütekriterien (Objektivität, Reliabilität, Validität) beurteilt, die sich aus der Klassischen Testtheorie ableiten. Weiters werden empirische Befunde zur Qualitätsunsicherheit am österreichischen ASP-Markt präsentiert.
Comment:
1. GutachterIn: Prof. Lutz J. Heinrich Institution: Johannes Kepler Universität Linz / Institut für Wirtschaftsinformatik - Information Engineering 2. GutachterIn: Prof. Friedrich Roithmayr Institution: Leopold Franzens Universität Innsbruck / Institut für Wertprozessmanagement - Wirtschaftsinformatik
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Zum Stand der elektronischen Kooperation - Fallstudien, Muster, Handlungsoptionen
Senger, Enrico
Universität St. Gallen (2004)
Abstract:
Elektronische Kooperation erlaubt es Unternehmen, sich stärker am Kunden und seinem Kundenprozess zu orientieren. Sie realisiert Geschäftsnetzwerke, in denen alle Beteiligten ein Kundenproblem schnell und umfassend lösen und dafür weitgehend voneinander unabhängige interne Prozessschritte der Beteiligten in gemeinsam definierte und betriebene Kooperationsprozesse integrieren. Die Arbeit untersucht diese neuen, elektronischen Geschäftslösungen, um zu verstehen, welchen Nutzen sie stiften. Ausgangspunkt der Ableitung von Erfolgsmustern und Handlungsempfehlungen ist die systematische Untersuchung von achtzehn kooperativen Geschäftslösungen mit einem einheitlichen, theoretisch fundierten Erhebungsraster. Die Erfahrungen der Fallstudienteilnehmer zeigen auf, welche Vernetzungsansätze erfolgreich sind und was Unternehmen beachten müssen, um Wettbewerbsvorteile durch elektronische Kooperation realisieren zu können.
Comment:
1. GutachterIn: Prof. Hubert Österle Institution: Universität St. Gallen 2. GutachterIn: Prof. Elgar Fleisch Institution: Universität St. Gallen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konzeption eines betrieblichen Katalogdatenmanagements
Leukel, Jörg
Universität Duisburg-Essen (2004)
Abstract:
Die Anforderungen an Katalogdaten haben sich im Zuge der Entstehung internetbasierter Handelssysteme, neuer technologischer Infrastrukturen und einhergehender Marktveränderungen grundlegend gewandelt. Katalogdaten werden zwischenbetrieblich ausgetauscht. Einkaufende Unternehmen verlangen von ihren Lieferanten Katalogdaten definierter Qualität und gemäß standardisierter Datenformate. Die Bereitstellung der Daten kann somit für Lieferanten eine Markteintrittsbarriere sein. Aus Sicht einkaufender Unternehmen ist die Lieferantenpartizipation als ein kritischer Erfolgsfaktor für E-Procurement- und Marktplatzsysteme anzusehen. Daher werden unternehmensweite Strategien für die Handhabung dieser Daten benötigt. Als Bezugspunkt für die Entwicklung dieser Strategien dient in dieser Arbeit das betriebliche Informations- und Datenmanagement. Mit der Herleitung der Ziele und Aufgaben des Katalogdatenmanagements (KDM) werden bislang isolierte, häufig technologisch ausgerichtete Einzelbereiche erstmals so zusammengeführt, daß ein Rahmen für die Gestaltung von katalogdatenverarbeitenden Informationssystemen entsteht. Dazu werden neben IS-Architekturen, Prinzipien der Datenverwaltung und Funktionen zur Datenbearbeitung auch wichtige Standards für die Produktklassifikation und den Datenaustausch untersucht und bewertet. Abschließend wird die einzelbetriebliche Perspektive ausgeweitet auf zwischenbetriebliche Aspekte des Katalogdatenaustauschs, um Instrumente zur Erhöhung der Interoperabilität von KDM-Systemen zu entwickeln.
Comment:
1. GutachterIn: Prof. Stefan Eicker Institution: Universität Duisburg-Essen 2. GutachterIn: Prof. Heimo Adelsberger Institution: Universität Duisburg-Essen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
B-KIDE: A Framework and a Tool for Business Process Oriented Knowledge Infrastructure Development
Strohmaier, Markus
Universität Graz (2004)
Abstract:
Der in dieser Arbeit entwickelte B-KIDE Framework bietet Organisationen Unterstützung in der Entwicklung von Wissensinfrastrukturen, welche innovative Wissensmanagementfunktionalitäten beinhalten und sichtbar organisatorische Geschäftsprozesse unterstützen, an. Das entwickelte B-KIDE Tool erleichtert die Anwendung des B-KIDE Frameworks für Entwickler von Wissensinfrastrukturen. Drei durchgeführte, empirische Studien mit Unternehmen unterschiedlichster Branchen bekräftigen die Relevanz und Viabilität der eingeführten Konzepte. Durch die Verknüpfung der Forschungsgebiete der angewandten Informatik und des Prozess- und Wissensmanagements werden existierende Synergien genutzt und Potentiale für Unternehmen aufgezeigt. Organisationen sind damit im Stande, moderne Wissensmanagementtechnologien effektiv nutzbar zu machen und diese effizient in die wertschöpfenden Abläufe zu integrieren.
Comment:
1. GutachterIn: Prof. Klaus Tochtermann Institution: Technische Universität Graz und Know-Center Graz 2. GutachterIn: Prof. Hermann Maurer Institution: Technische Universität Graz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Enterprise-Content-Management bei Finanzdienstleistern - Integration in Strategien, Prozesse und Systeme
Kutsch, Oliver
Universität Marburg (2004)
Abstract:
Finanzdienstleister befinden sich im Spannungsfeld zwischen Individualisierung und Standardisierung. Im Umgang mit semistrukturierten digitalen Informationen bietet das Enterprise-Content-Management (ECM) einen geeigneten Ansatz zur Bewältigung der Herausforderungen. Es werden Gestaltungsempfehlungen zur mehrwertorientierten Integration und Nutzung des ECM bei Finanzdienstleistern präsentiert. Der Schwerpunkt liegt auf folgenden Aspekten: Unterstützungspotenziale für strategische Ziele, Formulierung der ECM-Strategie unter besonderer Betonung von Kosten- und Mehrwerteffekten, Integration des ECM in die Prozesse mit Blick auf Conten-Bedarf und -Leistungen, aufbauorganisatorische Maßnahmen, Gestaltung der Interdependenzen der ECM-Prozesse, Varianten von ECM-Systemen, Bestandteile von Content-Objekten sowie Anforderungen an ECM-Systeme und deren Komponenten. Abschließend wird ein ECM-Vorgehen vorgestellt, das Schritte zur Analyse und Umsetzung des Integrationsmodells aufzeigt.
Comment:
1. GutachterIn: Prof. Ulrich Hasenkamp Institution: Philipps-Universität Marburg 2. GutachterIn: Prof. Paul Alpar Institution: Philipps-Universität Marburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Szenarienübergreifendes Referenzmodell für mobile Bezahlvorgänge
Pousttchi, Key
Universität Augsburg (2004)
Abstract:
Mobiles Bezahlen wird in der Arbeit aus der Marktsicht, der Wertsicht und der Systemsicht analysiert. Das Hauptergebnis ergibt sich aus der Systemsicht in Form des induktiv und deduktiv abgeleiteten Mobile-Payment-Referenzmodells (MPRM) als Informations-Referenzmodell auf fachkonzeptueller Ebene mit den Teilmodellen MPRM-Organisationsmodell, das die wirtschaftliche Interoperabilität sicherstellt, indem es eine systemimmanente Kooperation der Intermediäre nach dem Konzept des MPRM-Grid unterstützt und regelt, und MPRM-Anwendungssystemmodell, das die technische Interoperabilität sicherstellt, indem es mit Hilfe eines semantischen Modells ein Anwendungssystem zur Unterstützung mobiler Bezahlvorgänge gemäß den Vorgaben des MPRM-Organisationsmodells spezifiziert. Das MPRM ist unter dem Leitmotiv der Komplexitätsreduktion konstruiert und auf der Basis der darunterliegenden Konzepte geeignet, alle gängigen Geschäftsprozesse mit mobilen Bezahlverfahren zu unterstützen.
Comment:
1. GutachterIn: Prof. Klaus Turowski Institution: Universität Augsburg 2. GutachterIn: Prof. Franz Lehner Institution: Universität Passau 3. GutachterIn: Prof. Bernhard Fleischmann Institution: Universität Augsburg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Mehrfachverwendbare elektronische Lehr-/Lernarrangements - Entwicklung einer modularen und offenen Produktarchitektur zur individuellen Konfiguration von Bildungsprodukten
Kamin, Oliver
Universität Göttingen (2004)
Abstract:
Ergebnis ist ein Bildungsproduktkonzept, welches mittels fünf Sichten und sechs Rollen spezifiziert wird. Hierzu werden Anforderungs- und Qualitätskriterien an mehrfachverwendbare elektronische Lehr-/Lernarrangements (MELLA) formuliert. Anschließend erfolgt die fachliche und DV-technische Konzeption des Beschreibungswerkzeugs und der modularen und offenen Produktarchitektur zur individuellen Konfiguration (MOPAIK). Die Produktarchitektur ist ein Baukasten, dessen Bausteine in vier Klassen eingeteilt werden. Beispielhafte Umsetzungen aus der beruflichen und akademischen Aus- bzw. Weiterbildung zeigen die Anwendbarkeit der erarbeiteten Ergebnisse. Auch wird die Mehrfachverwendung von MELLA, die der oben genannten Konzeption folgen, wird aufgezeigt. Eine Perspektiverweiterung erfolgt bei der Konfiguration komplexer Bildungsangebote (z.B. Studiengänge), die nach gleichem Prinzip beschrieben und entwickelt werden können. Dies wird mit Hilfe eines Weiterbildungsstudiengangs verdeutlicht.
Comment:
1. GutachterIn: Prof. Dr. Matthias Schumann Institution: Universität Göttingen, Institut für Wirtschaftsinformatik, Abteilung II 2. GutachterIn: Prof. Dr. Jörg Biethahn Institution: Universität Göttingen, Institut für Wirtschaftsinformatik, Abteilung I
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Rollen- und Situationsmodellierung bei betrieblichen Dispositions- und Planungssystemen
Walther, Irene
Universität Erlangen-Nürnberg (2005)
Abstract:
Im betrieblichen Kontext nimmt der Einzelne eine Rolle ein, die er abhängig von weit gehend objektiven Vorgaben (z.B. Arbeitsplatzbeschreibung, Gesetzesvorschriften) ausführen muss und die nur teilweise Spielraum für subjektive Vorlieben und Abneigungen lässt. Die Ausgestaltung von Rollen wiederum ist abhängig vom Typ, der Branche des Unternehmens und der Lebensphase des Unternehmens (z.B. Gründung, Restrukturierung, Internationalisierung, Sanierung). Es besteht die Gefahr, dass die verschiedenen Sichtweisen völlig unabhängig voneinander und damit sehr unsystematisch entwickelt werden, weil ein Bezugsrahmen ("Framework") fehlt. In der Arbeit werden entsprechende Systematiken entwickelt bzw. weiterentwickelt.
Comment:
1. GutachterIn: Prof. Peter Mertens Institution: Universität Erlangen-Nürnberg 2. GutachterIn: Prof. Klaus Moser Institution: Universität Erlangen-Nürnberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ganzheitliches computerbasiertes Controlling im öffentlichen Theater: Konzeption und prototypische Implementierung eines Controlling - IS auf der Basis einer Analyse des öffentlichen Theaters.
Almstedt, Matthias
Universität Göttingen (1999)
Abstract:
Das Controlling in öffentlichen Kulturbetrieben unterscheidet sich wesentlich von dem im erwerbswirtschaftlichen Bereich. Während erwerbswirtschaftliche Unternehmen letztendlich allein auf das monetäre Ziel der Gewinnerzielung ausgerichtet sind, besteht das Zielsystem öffentlicher Kulturbetriebe aus mehreren simultan zu verfolgenden Zielen. Neben rein monetären Größen ist eine Vielzahl qualitativer Aspekte miteinzubeziehen. Am Beispiel des Theaters wird eine diese Besonderheiten berücksichtigende Controlling-Konzeption entwickelt. Darauf aufbauend erfolgt die Entwicklung eines computergestützten Controlling-Informationssystems für den Theaterbereich. Bevor erprobte betriebswirtschaftliche Methoden der Entscheidungsfindung übertragen werden können, muss überprüft werden, in welcher Weise sie an die erweiterte Problemstellung öffentlicher Theater angepasst werden müssen. Ein Schwerpunkt liegt dabei auf Methoden, die eine prozessorientierte Sichtweise unterstützen. Zentrale Methoden sind dabei computergestützte netzplanbasierte Zeitplanungs- und Überwachungstechniken und ressourcenorientiertes Kostenmanagement. Ausdrücklich wird die Anwends- und Anpassbarkeit von Standardsoftware (z. B. MS-Projekt) überprüft.
Comment:
1. Gutachter: Biethahn

Abstract erklärt nur Theater-Controlling und ist nicht Bestandteil der Dissertation

edit comment | edit entry | edit Topics | edit Category | display Bibtex
Kooperative Softwareentwicklung - Rechnerunterstützte Koordination und Kooperation in Softwareprojekten
Altmann, Josef
Universität Linz (1999)
Abstract:
Das Buch soll Antworten auf Fragen zur Arbeitsteilung, zur Kommunikation, zur Koordination und zur Kooperation ... geben. Kapitel 2 (21 Seiten) bringt Grundbegriffe der Kooperation und der Teamarbeit. Es werden die Nutzenpotentiale von Werkzeugen (Entwicklungsumgebungen) konzis dargestellt. In Kapitel 3 werden 4 Formen kooperativer Softwareentwicklung theoretisch und in Bezug auf ihre Werkzeugunterstützung diskutiert. Die theoretischen Betrachtungen geben einen guten Problemüberblick; die Auswahl der Beispiel-Werkzeuge läßt aber zu wünschen übrig: Zu jeder Form werden zwei Werkzeuge kurz vorgestellt, einige andere erwähnt. Wegen der Beschränkung auf Kooperation und Kleinbetriebe wurden einige bekannte kommerzielle Werkzeuge ausgeschlossen, die aber die vom Autor vermißte und geforderte Funktionalität besitzen (z.B. MAESTRO II, ADW, IEF, aber vielleicht nicht ganz berechtigt auch CSE-Workflow, FlowMark etc.). Dadurch gelten auch die in Abschnitt 3.5 (Bewertung) gemachten Aussagen nicht in voller Allgemeinheit. Im Kapitel 4 (33 Seiten) wird ein interessantes Modell für die kooperative Software-Entwicklung vorgestellt. Die Diskussion der Verteilung der Arbeitsgebiete und der Auswirkungen auf die Systemarchitektur ist besonders hervorzuheben. Anschließend wird in Kapitel 5 (21 Seiten) eine Arbeitsumgebung (Cooperation Assistant) für die kooperative Software-Entwicklung beschrieben. Das ambitionierte Ziel des Buches wird auf Grund der Seitenbeschränkung nur zum Teil erreicht. Der wesentliche Beitrag ist wohl die übersichtliche Gesamtschau der Problematik und die z.T. neue Perspektive (Kooperation als primäres Ziel). Es regt zu weiteren Untersuchungen an und schafft die Brücke zwischen der technischen Entwicklung und den damit eng zusammenhängenden aber oft ignorierten kooperativen Arbeitsaufgaben. Das Literaturverzeichnis ist ausführlich und für den Einstieg sehr hilfreich.
Comment:
1. Gutachter: Pomberger
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Computergestütztes betriebliches Umweltmanagement - Grundkonzept und kostenorientiertes Informationssystem
Bahlinger, Thomas
Universität Erlangen-Nürnberg (1999)
Abstract:
Im Hinblick auf die immer dringender werdenden Forderungen nach staatlicher Umweltgesetzgebung, insbesondere nach Internalisierung externer Effekte zu Lasten des Verursachers, ist eine Umorientierung im Management von Industrie- und Dienstleistungsunternehmen geboten. Dem Staat wird dabei allenfalls die Pflicht auferlegt werden können, sein Eingreifen in das Wirtschaftsleben so marktkonform wie möglich zu gestalten und Wettbewerbsverzerrungen dabei nach Kräften zu vermeiden. Sicher ist, dass die Internalisierung externer Effekte zukünftig einen weitaus stärkeren Einfluss auf unternehmerische Entscheidungen haben wird als bisher. Die Fähigkeit eines Unternehmens, sich darauf einzustellen und sich den geänderten Bedingungen anzupassen wird ein zunehmend gewichtiger Wettbewerbsfaktor. Dazu kommen veränderte Kundenforderungen, die vermehrt auch die Umweltverträglichkeit von Produktionsweisen, Produkten und Dienstleistungen einschließen. In dieser Arbeit werden Maßnahmen aufgezeigt, wie Unternehmen die eigene Umweltkostenbelastung managen können. Dazu ist es vor allem erforderlich, Umweltkosten im Unternehmen zu erkennen. Dies setzt die Verfügbarkeit entsprechender Informationssysteme voraus. In der Arbeit werden zunächst die bisherigen Entwicklungen in den Bereichen Qualitätsmanagement und betriebliches Umweltmanagement betrachtet (vgl. Kapitel 2). Besondere Beachtung wird dabei Computersystemen geschenkt, die das Qualitäts- und Umweltmanagement unterstützen. Umfassende Systeme, die alle Managementfunktionen einbeziehen und die spezifischen Qualitäts- und Umweltmanagementanforderungen erfüllen, sind in Literatur und Praxis nicht anzutreffen. Daher wird eine eigene Systematik für IV-gestützte Qualitäts- und Umweltmanagementsysteme aufgestellt, die als Vorlage für zukünftige Entwicklungen angesehen werden kann. Die fachliche Grundlage eines Systems für die Umweltkostenrechnung wird in Kapitel 4 entwickelt. Dabei wird eine Umweltkostendefinition vorgeschlagen, die auch externe Kosten einschließt. Vor dem Hintergrund der Internalisierungsbestrebungen des Staates ist es erforderlich, diese Kosten bereits frühzeitig in das Blickfeld der Manager zu rücken. Damit verbunden ist die äußerst schwierige monetäre Bewertung von unternehmensinduzierten Umweltbelastungen. Kapitel 5 zeigt anhand mehrerer prototypisch entwickelter Teilsysteme auf, wie das vorgestellte Konzept der Umweltkostenrechnung mit Hilfe der Informationsverarbeitung unterstützt werden kann. Abschnitt 5.2 stellt ein entsprechendes Basissystem zur IV-gestützten Umweltkostenrechnung vor. Darüber hinaus werden verschiedene Bausteine entwickelt, die in spezifischen Teilbereichen ihren Beitrag zum Gesamtsystem leisten. Zur Unterstützung der Bewertung unternehmensinduzierter Umweltbelastungen wird in Abschnitt 5.3 eine agentengestützte Delphi-Befragung vorgestellt. Um umweltkostenrelevante Ursache-Wirkungszusammenhänge im Unternehmen sichtbar zu machen, wird in Abschnitt 5.4 ein Fuzzy- basierter Softwareagent beschrieben, der in einer innerbetrieblichen elektronischen Umfrage Meinungen zu Prozessänderungsvorschlägen sammelt und auswertet. Als Instrument der Steuerungsfunktion des Managements wird in Abschnitt 5.5 ein Multiagentensystem vorgeschlagen, das auf einem innerbetrieblichen Markt einen Handel mit Umweltverschmutzungs-rechten erlaubt. Unternehmen können mit Hilfe dieser Anregungen, die natürlich nur einen Teil eines umfassenden Maßnahmenbündels darstellen, den Blick auf Umweltkosten lenken und der zu erwartenden Änderung der Umweltpolitik und umweltbezogenen Wettbewerbsanforderungen ein Stück weit entgegentreten.
Comment:
1. Gutachter: Bodendorf 2. Gutachter: Peemöller
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Qualitätsbeurteilung innovativer Softwaresysteme : Auswirkungen des Neuheitsgrades
Baier, Gundolf
TU Chemnitz (1999)
Abstract:
Inhalt:Innovationsbegriff - Qualitätsbeurteilung innovativer Softwaresysteme - Neuheitsgrad von Softwaresystemen - Integrierte kaufmännische Standardanwendungssoftware - LISREL-Ansatz und LISREL-AnalyseRascher technologischer Fortschritt, kürzer werdende Produktlebenszyklen, wachsende Wettbewerbsintensität und sich wandelnde Bedürfnisse der Nachfrager bewirken, dass das Hervorbringen und Vermarkten von Innovationen zum entscheidenden Erfolgsfaktor für Unternehmen wird. Vor diesem Hintergrund spielt der Neuheitsgrad von Innovationen eine bedeutende Rolle, die von der Forschung bisher allerdings vernachlässigt wurde. Im Rahmen einer theoriegeleiteten Vorgehensweise analysiert Gundolf Baier den Zusammenhang zwischen dem Neuheitsgrad und der Beurteilung der Qualität von Innovationen. Am Beispiel integrierter kaufmännischer Standardanwendungssoftware überprüft der Autor das von ihm entwickelte Erklärungsmodell und leitet praxisrelevante Empfehlungen ab.Dr. Gundolf Baier ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Marketing und Handelsbetriebslehre von Prof. Dr. Cornelia Zanger an der Technischen Universität Chemnitz.
Comment:
1. Gutachter: Zanger
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Analysemuster in der Architektur kommerzieller Informationssysteme
Bender, Kai
TU Dresden (1999)
Abstract:
In den letzten Jahren hat sich im Software Engineering ein Trend zur Nutzung wieder verwendbarer „Modellbausteine, sogenannter „Muster, herausgebildet. Die Anwendung von Mustern ist heute weit verbreitet, beschränkt sich aber vornehmlich auf die implementationsnäheren Modellierungsphasen und dort fast ausschließlich auf das objektorientierte Paradigma. Die vorliegende Arbeit diskutiert Muster primär im Bereich der Analyse. Es wird eine Systematik erarbeitet, mit der Muster und Musterkombinationen klassifiziert werden können, wobei nicht nur die üblicherweise fast ausschließlich hantierten statischen Modelle eine Rolle spielen, sondern insbesondere auch funktionale Strukturen. In einem weiteren Schritt werden Muster auf die Beziehungen zwischen Kom- ponenten von Informationssystemarchitekturen angewendet. Auf diese Weise gelingt ein konzeptioneller Brückenschlag zwischen generischen Strukturen der Unternehmensstrategie, der Unternehmensorganisation und konzeptuellen Modellen von Software-Systemen. Verwendung finden dabei sowohl objektorientierte als auch datenflußorientierte Methoden. Ferner wird unter der Bezeichnung „Extrakontext-Logik die Relevanz von Beziehungen zwischen Entitäten bzw. Aktoren im Kontext eines Systems diskutiert und zum Teil auf die zuvor erarbeiteten Zusammenhänge zurückgeführt. Die Arbeit wird durch einen Vorschlag zur Weiterentwicklung des Software Engineering-Procederes abgeschlossen.
Comment:
1. Gutachter: Engelien
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Unternehmung ohne Grenzen - Konzepte, Strategien und Gestaltungsempfehlungen für das Strategische Management
Blecker, Torsten
Universität Duisburg (1999)
Abstract:
Temporäre Zusammenschlüsse kleiner, wettbewerbsfähiger Unternehmen bzw. Unternehmenseinheiten sind häufig erfolgreicher als die traditionellen großen Unternehmen. Thorsten Blecker entwickelt das Konzept einer "Unternehmung ohne Grenzen". Das aktuelle Wettbewerbsumfeld zwingt Unternehmen, externe Ressourcen zu nutzen und intermediäre Koordinationsformen mit anderen Unternehmen einzugehen. Temporäre Zusammenschlüsse kleiner, wettbewerbsfähiger Unternehmen bzw. Unternehmenseinheiten sind daher häufig erfolgreicher als die traditionellen großen Unternehmen. Auf Basis der intermediären Organisationsformen "Unternehmensnetzwerke" und "Virtuelle Unternehmen" entwickelt Thorsten Blecker das Konzept der Unternehmung ohne Grenzen. Der Autor analysiert dieses Konzept aus Sicht der Industrieökonomik (Market-Based View) und des ressourcenorientierten Ansatzes (Resource-Based View) und implementiert es als neue Komponente in das strategische Management. Aus der problembezogenen Synthese des Market-Based View und des Resource-Based View erarbeitet der Autor idealtypische Interaktionsstrategien und zeigt Gestaltungsempfehlungen für die Implementierung in die unternehmerische Praxis auf.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Objektorientierte Entwicklung eines parallel arbeitenden Materialflusssimulators
Bock, Stefan
Fernuniversität Hagen (1999)
Abstract:
Stefan Bock entwickelt ein massiv paralleles Simulationsverfahren, mit dem die Synchronisierungsprobleme vorhandener Ansätze vermieden werden können. Bei der Gestaltung von Materialflusssystemen ist die Simulation eine anerkannte und oft auch einzige praktisch nutzbare Methode zur Modellierung und Analyse. Die dabei häufig eingesetzten bausteinorientierten Simulatoren lassen sich allerdings nur mit großem Aufwand um neue Bausteine und Funktionen erweitern, und die Simulation erfordert - besonders bei komplexen Problemstellungen und detaillierter Modellbildung - sehr viel Rechenzeit. Stefan Bock zeigt, wie durch einen objektorientierten Ansatz die Schwierigkeiten bei der Erweiterung bausteinorientierter Simulatoren effizient zu lösen sind. Er entwickelt ein massiv paralleles Simulationsverfahren, mit dem die Synchronisierungsprobleme vorhandener Ansätze vermieden werden können.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Blackboardarchitekturen zur Entwicklung intelligenter tutorieller Systeme
Born, Andreas
Universität Basel (1999)
Abstract:
Die vorliegende Arbeit motiviert, beschreibt und diskutiert die Architektur von LP-TUTOR, einem intelligenten tutoriellen System (ITS), das Studenten bei der Anwendung von Begriffen und Lösungsverfahren der linearen Optimierung und Autoren beim Entwurf und der Formulierung geeigneter Übungsaufgaben unterstützt. Als unterrichtsbegleitendes Medium setzt es voraus, dass die Begriffe und Verfahren (auf traditionelle Weise) eingeführt werden. Systeme dieser Art müssen sich in ein bestehendes Unterrichtskonzept einbauen und bei Änderungen anpassen lassen. Wir betrachten die Entwicklung eines Übungstutors und seine Integration in den Unterricht als evolutionären Prozess, in dem Autoren (Lehrer) und Programmierer eng zusammenarbeiten und in den indirekt auch Studenten durch ihr Feedback involviert sind. Die Entwicklung einer Blackboardarchitektur für LP-TUTOR hat das Ziel verfolgt, einen solchen Prozess zu unterstützen. Blackboardarchitekturen sind Architekturen für wissensbasierte Systeme, die sich u.a. durch ihre Modularität auszeichnen und bei Planungsaufgaben Anwendung finden. Manche ITS setzen Blackboards beispielsweise zur Planung des Unterrichts ein. Die Expertenmodule von LP-TUTOR dagegen ‘planen’ auf dem Blackboard die Reaktionen auf die Aktionen der Benutzer. Es resultiert jeweils eine Antwort und das dazugehörige Herleitungsprotokoll. Der modulare Charakter von Blackboardarchitekturen beruht primär darauf, dass das Blackboard die einzige Kommunikationsschnittstelle zwischen den Experten ist. In LP-TUTOR sind die meisten Expertenmodule gegenstandsspezifisch, sie lassen sich aber einfach integrieren, ändern oder auswechseln. Von den restlichen Modulen, wie das Blackboard, die Steuerung und die Erklärungskomponente, konnten die meisten gegenstandsunabhängig realisiert werden. Die Erklärungskomponente begründet Studenten und Autoren, gestützt auf dem Herleitungsprotokoll, wie eine Antwort hergeleitet wurde. Anstatt aber die Inhalte des Protokolls zu verstehen, interpretiert sie die Strukturen, welche die untereinander verknüpften Lösungselemente auf dem Blackboard bilden. Auf diese Weise benötigt sie kein domänenspezifisches Wissen. Programmierer berücksichtigt die Erklärungskomponente besonders, indem sie ihnen eine uneingeschränkte Sicht auf das Blackboard gewährt. LP-TUTOR’s Operationen auf einer globalen Datenbasis bei der Problemlösung sind relativ ineffizient. Als zentrale Modulschnittstelle und als Protokollführer von Herleitungen bietet ein Blackboard jedoch Potential für den Bau von Werkzeugen zur Entwicklung und Wartung intelligenter tutorieller Systeme
Comment:
Gutachter: Prof. M. Lusti, Prof. C. Ullrich
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ausdifferenzierung eines Componentware - PPS-Systems in Richtung auf Branchen und Betriebstypen
Braun, Marc
Universität Erlangen-Nürnberg (1999)
Comment:
1. Gutachter: Mertens 2. Gutachter: Voigt
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Informationsplanung im Rahmen der Konzeption von Executive Information Systems (EIS) - Theoretische Analyse, Empirische Untersuchung und Entwicklung von Lösungsansätzen.
Ballensiefen, Klaus
Universität Köln (1999)
Comment:
1. Gutachter: Seibt
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Wirtschaftlichkeitsanalyse und organisatorische Auswirkungen der informationstechnischen Unterstützung inner- und zwischenbetrieblicher Geschäftsprozesse.
Buxmann, Peter
Universität Frankfurt a.M. (1999)
Comment:
1. Gutachter: König (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Rechnergestützte Integration von Rechnungswesen-Informationen und Marktforschungsdaten.
Cas, Klemen
Universität Erlangen-Nürnberg (1999)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Prozeßmanagement auf Basis von Workflow-Systemen : ein integrierter Ansatz zur Modellierung, Steuerung und Überwachung von Geschäftsprozessen.
Derszteler, Gérard
TU Berlin (1999)
Abstract:
Die Verbesserung betrieblicher Organisationsstrukturen und ihre Anpassung an ein sich ständig änderndes Umfeld stellen eine permanente Herausforderung für alle Unternehmen dar. Eine Antwort hierauf ist das Konzept des Prozeßmanagements, welches in einem kontinuierlichen Kreislauf von Modellierung, Steuerung und Analyse die Geschäftsprozesse stetig weiterentwickelt. Die informationstechnische Unterstützung des Prozeßmanagements erfolgt mit verschiedenen Systemen. So kommen häufig Gestaltungswerkzeuge für die Modellierung und MIS-Systeme in der Analysephase zum Einsatz. Schließlich können gerade in großen, komplexen Organisationen Workflow Management-Systeme zu einem effektiven Prozeßmanagement beitragen, indem sie die Prozeßsteuerung und -analyse unterstützen und auch eine Integration mit der Modellierungsphase erlauben. Nach einer Beschreibung unterschiedlicher Methoden des Prozeßmanagements und dessen informationstechnischer Grundbausteine wird ein Prozeßmanagement-Modell auf Basis von Workflow-Systemen entwickelt, welches auf die Optimierung informationsverarbeitender Organisationsstrukturen abzielt. Eine Implementierung des Konzepts erfolgt auf Basis der Modellierungswerkzeuge ARIS Toolset und Bonapart sowie des Workflow-Systems SNI WorkParty.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Generating and Matching Profiles in Large Scale Webcasting Systems.
Eichstädt, Matthias
Fernuniversität Hagen (1999)
Comment:
1. Gutachter: Schlageter
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Internet webcasting : generating and matching profiles.
Eichstädt, Matthias
Fernuniversität Hagen (1999)
Abstract:
A new breed of information dissemination systems called webcasting or push systems has attracted enormous attention in the Internet industry. Push technology stems from a very simple idea. Rather than requiring users to explicitly request the information that they need, data can be sent to users without having them specifically ask for it. A push system automatically delivers information content such as classified ads or shopping items based on the user's interest. Matthias Eichstädt introduces novel techniques for matching user interest profiles against diverse information content in large scale webcasting systems.
Comment:
1. Gutachter: Schlageter
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Branchensoftware für kleine Unternehmen - Ein Beitrag zur standardisierten Integration betriebswirtschaftlicher Komponenten
Engelhardt, Andrea
Universität Erlangen-Nürnberg (1999)
Abstract:
Es wurden Konzepte entwickelt und prototypisch getestet, mit denen ein ?Mittelweg? zwischen Standard- und Individualsoftware beschritten wird. Dabei lieferte die DATEV eG den Kern einer betriebswirtschaftlichen Anwendungslösung für Mandantenbetriebe, den man mit branchen- und betriebstyporientierten Softwarekomponenten mittelständischer Softwarehäuser ergänzte.
Comment:
1. Gutachter: Mertens
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entwicklung eines Metamodells zur Komplexitätsbeherrschung bei der Modellierung von Geschäftsprozessen und ihrer Abbildung auf betriebliche Informationssysteme in dynamischen Diskurswelten
Esser, Manfred
TU Chemnitz (1999)
Comment:
1. Gutachter: Stöckert
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Prozesse der Konzeption, Realisierung und Einführung integrierter Telekooperationssysteme - Risiken und Gestaltungsempfehlungen
Finger, Ralf
Universität Köln (1999)
Abstract:
Moderne Telekooperationstechnologien wie Audio-Video-Conferencing oder Information Sharing werden zunehmend als Mittel für veränderte Organisationsstrukturen diskutiert. Dezentralisierung, Vernetzung oder gar Virtualisierung von Organisationsstrukturen sind Schlagworte in diesem Zusammenhang. Voraussetzung für die Erschließung der Nutzenpotentiale, die sich hinter diesen Begriffen verbergen, sind jedoch erfolgreiche Projekte zur Einführung von Telekooperationstechnologie in Organisationen. Hier versucht diese Arbeit, einen Beitrag zu leisten. Dazu werden Einsatzfelder unterschiedlicher Telekooperationstechnologien abgegrenzt und beschrieben, Gestaltungsempfehlungen und Risiken zu Konzeption, Realisierung und Einführung von Telekooperationssystemen in über 100 Thesen formuliert und bewertet, die Aussagen aus 20 Interviews mit Experten aus der Praxis dargestellt und gemeinsam mit den Thesen zu Gestaltungsempfehlungen und Risiken in Szenarien des Telekooperationseinsatzes systematisiert sowie die gewonnenen Erkenntnisse in dem Telekooperationsprojekt Tele-Team-Support anhand eines Praxisfalles bewertet. Die ausführliche Beschreibung des Projektes Tele-Team-Support vermittelt zusätzlich einen Einblick in die Komplexität der Einführung eines Telekooperationssystems in einer internationalen Organisation.
Comment:
1. Gutachter: Seibt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Architektur für den Know-how-Transfer
Fink, Kerstin
Universität Innsbruck (1999)
Abstract:
Die Wirtschaftsinformatik stellt Methoden und Werkzeuge zur Unterstützung von Informationsprozessen zur Verfügung, lässt allerdings denAspekt der Know-how-Unterstützung außer Acht. Die Forschungsfrage lautet, wie kann eine Knowhow-Architektur die Verbesserung von Transferprozessengestalten und unterstützen. Die Einordnungdes Know-how-Ansatzes in die WissenschaftsdisziplinWirtschaftsinformatik verlangtnach einer Modifizierung von Informationssystemenals Mensch-Aufgabe-Technik-Systeme. DerKnow-how-Ansatz stellt den Menschen mit seinem Erfahrungswissen, welches er für die Lösungvon individuellen Problemen einsetzt, in den Mittelpunktder Betrachtung. Für Unternehmen stelltsichdie Schwierigkeit,wie einZugang zum Knowhow der Mitarbeiter erworben werden kann, dadiesemehrwissen als sie kommunizieren. Die Forschungskonzeption der Begriffslehrebildet die terminologische Basis für die Ableitungeiner Know-how-Definition. Aufgrund derdivergierenden Definitionen zum Begriff Knowhow wird eine Know-how-Systematik, basierendauf sechs Dimensionen, vorgestellt: der aristotelische,der neurowissenschaftliche, der wissenspsychologische,der juristische, der betriebswirtschaftliche und der wirtschaftsinformatikorientierteAnsatz.Zum Untersuchungsobjekt Know-how werdenzwei empirische Studiendurchgeführt.Diese sollenden Befund über die praktische Bedeutung vonKnow-how in Unternehmen liefern. Die Datenerhebungerfolgte mittels der Fragebogenmethode.Das Untersuchungsobjekt sind österreichische Unternehmen,welche ihre Produkte/ Dienstleistungenim Internet für Handelstransaktionen vorstellen.Die Befunde führen zur Feststellung, dass dieRelevanz von Know-how in den naÈchsten fünf Jahren zunimmt. Aus diesem Grunde muÈssen geeigneteMethoden ± welche letztlich in Werkzeugen münden ± zur Gewinnung, Archivierung, Weiterentwicklungund zum Transfer von Know-howentwickeltwerden. In Anlehnung an den Systemplanungs-Ansatzvon Heinrich wird eine Know-how-Architekturentwickelt. Zur Abbildung von Know-how wirddiequalitative Methode Mind-Mapping gewählt,um insbesondere die kognitiven Prozesse desIndividuums zu unterstützen. Es werden Gestaltungsempfehlungenfür die Vorgehensweise zurErstellung von Mind-Maps dargelegt, indem,,Grundsätze ordnungsmäßigen Mind-Mappings(GoMiMa)`` aufgestellt werden. Diese Grundsätze gewährleisten, dass die Erstellung eines Mind-Maps nicht willkuÈrlich erfolgt, sondern sich nachvorgegebenen Gesetzmäßigkeiten richtet. Die Architektur besteht aus fuÈnf Prozessen:dem Prozess der Vorstudie, dem Prozess derIdentifikation, dem Prozess der Adaption, dem Prozess der Vernetzung und dem Prozess derImplementierung. Ausgangspunkt der Knowhow-Architektur istder Prozess der Vorstudie,der sich durch eine grundlegende Ausrichtungmit dem Know-how-Ansatz in einem Unternehmenbeschäftigt. Um die Transformation zu einemKnow-how-Unternehmen (vgl.WIRTSCHAFTSINFORMATIK39 (1997) 5, S. 503-506)zu realisieren, ist es notwendig,ausreichendeKenntnisse über die Fertigkeiten der Mitarbeiterzu besitzen. Diese werden im Prozess der Identifikationin Form von Mind-Maps festgehalten.Um Rückschlüsse auf das in den Mind-Maps offengelegteKnow-how der Experten zu ziehen,werden die Mind-Maps im Prozess der Adaptiondurch qualitative Interviews inhaltlich interpretiert.Zur Vernetzung der Mind-Maps wird einBegriffsverzeichnis mit alternativen MöglichkeitenfuÈr den jeweiligen Fachbereich (Thesaurus)erarbeitet. Der Prozess der Vernetzung hat zumZiel, das ,,tacit knowledge`` der Know-how-Träger zu einem Know-how-Netz zu verbinden. DieAktualisierung der Know-how-Architektur undder Aufbau eines Controllingsystems sind Gegenstanddes Prozesses der Implementierung.FuÈr die Know-how-Architektur wird ein ERDiagrammentworfen. Das Datenmodell bildetedie Grundlage für die Entwicklung eines Prototypen,welches die Know-how-Architektur werkzeugmäßig unterstützt.Anhandeines Fallbeispielsim Marktforschungsbereich wird die Know-how-Architektur reflektiert, um Verbesserungsmaßnahmen fuÈr die einzelnen Prozesse zu initiieren.
Comment:
1. Gutachter: Roithmayr 2. Gutachter: Heinrich
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integration agentenbasierter Informationsdienste in das Data Warehousing - Ein arbeitsplatzzentrierter Ansatz zur Erweiterung des Data Warehousing am Beispiel der Finanzdienstleistungsbranche.
Gehrke, Christian
Universität Regensburg (1999)
Abstract:
Mit Hilfe eines Data Warehouse-Systems kann der Informationsnachfrager flexible Analysen des unternehmensinternen Zahlenmaterials durchführen. Hochfluktuatives unternehmensexternes Zahlenmaterial oder Dokumente werden jedoch auch weiterhin in seperaten Informationssystemen abgelegt. Informationsagenten ermöglichen die Integration der Abfragewerkzeuge des Data Warehouse und der sonstigen Informationssysteme unter Leitung des Electronic Information Brokers (EIB), der als Mediator die Aufgabe der Koordination zwischen den Datenquellen und den Abfragewerkzeugen übernimmt. Ziel der Arbeit ist die detaillierte Beschreibung einer EIB-basierten Informationssystemarchitektur, in der zusätzliche Datenquellen - durch den EIB koordiniert - in das Data Warehousing integriert werden können.
Comment:
1. Gutachter: Bartmann (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ein Modell zur Nutzenbeurteilung des Einsatzes von Informationstechnologien im Rahmen der Prozeßgestaltung bei Business Process Reengineering-Projekten
Geier, Christoph
Universität Hohenheim (1999)
Abstract:
Forschung und Praxis haben die Rolle der Informationstechnologie als "Enabler" für Business Process Reengineering weitgehend akzeptiert. In der praktischen Umsetzung werden Entscheidungsträger jedoch häufig vor erhebliche Probleme gestellt, die Komplexität des Wechselspiels von Prozessgestaltung und IT-Gestaltung zu beherrschen. Christoph Geier entwickelt ein Verfahren, das diesen Zusammenhang systematisiert und konkrete Hinweise zur Optimierung des IT-Einsatzes im Rahmen von BPR-Projekten liefert, und überprüft dies anhand von Fallbeispielen.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Strategien einer einsatzsynchronen Beschaffung
Geisel, Roland
Universität Lüneburg (1999)
Abstract:
Die Bestimmung konsistenter Beschaffungsstrategien ist in der wissenschaftlichen Diskussion bislang nur unzureichend vollzogen. Eine ganzheitliche Betrachtung steht auch für die bestehenden Konzepte langfristiger Optimalpolitiken einer einsatzsynchronen Beschaffung aus. Auf der Basis eines multivariaten, ganzheitlichen Modellansatzes ermittelt Roland Geisel unter der Berücksichtigung der Beschränkungen einer Just-in-Time-Beschaffung ein Optimierungsmodell für instrumental orientierte Beschaffungsstrategien. Unter Nutzung der Kontrolltheorie identifiziert der Autor optimale Instrumenteneinsatzpolitiken, die zu konsistenten Optimalstrategien einer einsatzsynchronen Beschaffung verdichtet werden.
Comment:
1. Gutachter: Reese
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integriertes Geschäftsprozeßmanagement
Gierhake, Olaf
Universität Halle (1999)
Abstract:
Das Buch dient als Praxisleitfaden für die Reorganisation und das Workflow-Management in Unternehmen. Es kombiniert die verschiedenen Vorgehensweisen zur betriebswirtschaftlichen Geschäftsprozeßbeschreibung und -gestaltung (u.a. ARIS, BPR, Kaizen) mit neuen Prozeßunterstützungswerkzeugen auf der Grundlage aktueller technischer Infrastrukturen (Client/Server, Inter-/Intranet). Der Ansatz des integrierten Geschäftsprozeßmanagements (IGPM) berücksichtigt gleichermaßen organisatorische, technische und humane Aspekte der Einführung von Prozeßunterstützungssystemen. Die IGPM-Einführungsmethodik erschließt ein enormes Potential für Effizienz- und Effektivitätssteigerungen in der Bearbeitung von Geschäftsprozessen bei Unternehmen unterschiedlicher Branchen. Das Buch richtet sich an Führungskräfte in organisatorischen und DV-technischen Leitungspositionen sowie an Hochschullehrer und Studenten im Bereich Wirtschaftsinformatik und angrenzender Gebiete.
Comment:
1. Gutachter: Picht 2. Gutachter: Krcmar 3. Gutachter: Hasenkamp
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Aktororientiertes Work-Management Computergestützte Koordination von Gruppenarbeit: Modelle, Methoden und Systeme zur Realisierung adaptiver Workgroup- und Workflow Anwendungen
Grebner, Robert
Universität Erlangen-Nürnberg (1999)
Abstract:
In dieser Arbeit findet eine umfassende Behandlung des Forschungsgebiets CSCW statt. Dabei sind die Aufgabenstellungen "Entwicklung eines Verständnisses für CSCW", "Entwicklung von Modellen und Konzepten aus diesem Verständnis heraus" und "Entwicklung von Systemen zur Unterstützung des CSCW" Gegenstand der Untersuchung. Aus Sicht des Software- Engineering steht die Entwicklung der Softwareklasse "CSCW-Systeme" im Vordergrund. Hierzu werden sowohl eine vollständige Entwurfsmethode (aktororientierte Work- Managementmethodologie) mit entsprechenden Metamodellen als auch ein dazu passendes Entwicklungs-Framework (ACTORNET) mit eigener Programmiersprache entwickelt und implementiert. Aufbauend auf dem Framework wird das Work- Managementsystem METAWORK realisiert, mit dem sich Gruppenarbeit unterstützen und koordinieren lässt und das die Methoden des aktororientierten Work- Managements unterstützt. Die Vorgehensweise, für eine spezielle Klasse von Softwareprodukten dedizierte Entwicklungsmethoden, -plattformen und auch Programmiersprachen zu entwerfen, findet man in den verschiedensten Bereichen der Softwareentwicklung. Für die Entwicklung von CSCW- Systemen und insbesondere von Systemen, die flexibel verschiedene Methoden der Koordination unterstützen, fehlt diese Vorgehensweise jedoch in der hier vor-geschlagenen Allgemeinheit und Vollständigkeit. Die Flexibilität des Ansatzes stützt sich sowohl auf die Agententechnologie als auch auf den Einsatz des Konzepts "Generative Programmierung", in der problemorientierte bzw. domänenspezifische Programmiersprachen auf einer hohen Abstraktionsebene entwickelt und verwendet werden. Gleichzeitig bleiben die Einsatzmöglichkeiten allgemeingültiger Programmiersprachen erhalten. Mit dem ACTORNET-Framework ist die Möglichkeit gegeben, die auf die Probleme des CSCW zugeschnittene AWL- Sprache zu verwenden und parallel dazu die Funktionalität der virtuellen ACTORNET- Maschine mit Hilfe einer "general-purpose"- Programmiersprache zu verändern oder zu erweitern. Zusätzliche Funktionalität wird durch eine Erweiterung der AWL- Sprache auch auf der domänenspezifischen Ebene genutzt. ACTORNET zeichnet sich dadurch als allgemeingültiges Framework zur generativen Programmierung aus und kann nicht nur für Entwicklungen im Bereich des CSCW eingesetzt werden. Aus Sicht der Unternehmensgestaltung bieten das Aktorparadigma und die darauf aufbauenden Modelle die Möglichkeit, komplexe Sozio- Technische Organisationsstrukturen und Geschäftsprozesse in einer übersichtlichen Form und auf verschiedenen Abstraktionsebenen zu entwickeln und darzustellen. Durch die Betrachtung separater Arbeitssysteme bzw. -modelle, die auf derselben Ebene nebeneinander angeordnet und auf abstrakter Ebene wieder zu einem Arbeitssystem zusammengefasst werden, kann die Komplexität der Gesamtstruktur in übersichtlichen Einheiten erfasst werden. Dabei müssen Geschäftsprozesse nicht an einer einmal aufgestellten Struktur aus-gerichtet werden. Für jeden Prozess können neue, nebeneinander existierende "virtuelle" Arbeitssysteme definiert werden, die den organisatorischen Kontext eines Prozesses darstellen. So kann sich ein OTP- Prozess beispielsweise über alle Abteilungen einer Firma erstrecken, während bei einer Reisekostenabrechnung in der Regel nur wenige Abteilungen involviert sind. Der zu berücksichtigende Kontext eines Geschäftsprozesses kann immer auf das notwendige Minimum beschränkt werden. Das methodische Vorgehen bei der Modellierung und Realisierung von Organisationsstrukturen und -abläufen wird dabei durch die Work- Managementmethodologie unterstützt, die darauf ausgerichtet ist, die Interdependenzen innerhalb und zwischen Arbeitssystemen zu berücksichtigen. Die Implementierung der fachlichen Modelle kann mit Hilfe derselben Metamodelle und derselben Werkzeuge erfolgen, was den Umsetzungs- und Realisierungsprozess erheblich vereinfacht.
Comment:
1. Gutachter: Bodendorf 2. Gutachter: Meyer
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Dynamisches Front-End für prozessorientierte Anwendungssysteme: Entwicklung eines objektorientierten Systems
Grisse, Jörn-Peter
Universität Siegen (1999)
Abstract:
Front-End-Systeme - Modellierung mit der Unified Modeling Language - Prozesse - Anforderungen an das Front-End-System - Konzept - Technisches Verfahren - Objektorientierte Modellierung - TransaktionsverarbeitungIn prozessorientierten betrieblichen Informationssystemen können Geschäftsprozesse abgebildet und durch Front-End-Systeme visualisiert werden, um dem Anwender eine effizientere Bearbeitung zu ermöglichen. Die Realisierung derartiger Informationssysteme erfordert neue Verfahren und innovative DV-Konzepte. Jörn-Peter Grisse analysiert die Anforderungen an ein dynamisch reagierendes Front-End-System und entwickelt ein allgemeingültiges technologisches Verfahren zur Implementierung von Front-End-Systemen. Dieses wird zunächst funktional beschrieben und hinsichtlich der statischen und dynamischen Aspekte in ein objektorientiertes Modell überführt. Der Autor verifiziert das Verfahren durch die Implementierung.Dr. Jörn-Peter Grisse ist wissenschaftlicher Mitarbeiter im Fachbereich Wirtschaftswissenschaften (Wirtschaftsinformatik) der Universität Siegen, wo er bei Frau Prof. Dr. Herrad Schmidt promovierte.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Executive information systems und groupware im Controlling : Integration durch das prozessorientierte Team-Controllingsystem (ProTeCos).
Haberstock, Phillip
Universität Paderborn (1999)
Abstract:
Zielsetzung der vorliegenden Arbeit ist es, Konzepte, Anforderungen und Lösungsmöglichkeiten für die Integration von EIS und Groupware als Grundlage eines prozeßorientierten Controllingsy- stems für die Teamunterstützung im Controlling zu untersuchen. Zu diesem Zweck soll aufbauend auf den Konzepten und Methoden der Betriebswirtschaftslehre und der Wirtschaftsinformatik die Konzeption des PROTECOS entwickelt werden, welche die speziellen Anforderungen aus Theorie und Praxis berücksichtigt. Vor diesem Hintergrund dient das zu entwickelnde PROTECOS der Kommunikation, Kooperation und Koordination aller am Controllingprozeß beteiligten Mitarbeiter. Es soll durch die bedarfsgerechte Erfassung, Präsentation und Analyse sowie den Austausch von Controllinginformationen die Entscheidungsfindung, Planung und Kontrolle im Controlling unterstützen. Im Rahmen des Dissertationsvorhabens sollen der notwendige theoretische Bezugs- und Relevanzrahmen dargestellt sowie Prozeßorientierung und Teamunterstützung im Controlling in Hinblick auf ihre strukturbestimmenden Merkmale für ein Controllingsystem untersucht werden. Aufgrund des sich abzeichnenden Paradigmenwechsels in der Managementunterstützung hin zu flacheren Hierarchien und einer breiteren Delegation von Entscheidungsprozessen müssen auch die Controllinginformationen für diese breiteren Anwenderschichten zur Unterstützung von Planung und Kontrolle sowie der Koordination der einzelnen Unternehmensteile problemlösungsadäquat bereitgestellt werden. Die Realisierung dieser Zielvorgaben wird durch die Integration von EIS und Groupware-basierten fachlichen Komponenten erreicht, die es ermöglicht, bisher nicht genutzte Informationen im Rahmen eines ganzheitlichen, integrierten Controllingsystems dem Controllingteam zugänglich zu machen. Unternehmensweite Informationen in ihren diversen Formen und an unterschiedlichen Orten zu erfassen, zu konsolidieren, zu analysieren und zu verteilen stellt für jedes Unternehmen eine große Herausforderung dar. PROTECOS kann vor diesem Hintergrund als ein innovatives Controllingsystem betrachtet werden, das die Schwachstellen klassischer EIS überwindet und auf Basis von Data Warehouse-, OLAP- und Data Mining-Konzepten sowie Knowledge- und Dokumentenmanagement neue Möglichkeiten zur aktiven Informationsversorgung und Entscheidungsunterstützung im Controlling aufzeigt. Zentraler Bestandteil der Arbeit ist die Darstellung aktueller Controllingsystem-Komponenten sowie eine umfassende Analyse und Bewertung von Anforderungen an ein prozeß- und teamorientiertes Controllingsystem. Neben der Berücksichtigung der konzeptionellen und informationstechnologischen Anforderungen aus Theorie und Praxis liegt ein weiterer Schwerpunkt in der softwaretechnischen Umsetzung der erarbeiteten Konzepte. Die prototypische Implementierung des PROTECOS stützt sich dabei auf die innovative Workflow Management-Lösung PAVONE Espresso sowie die teamorientierte Projektmanagement-Komponente PAVONE GroupProject, deren objektorientierte Architekturen, Meta-Modelle und Basisfunktionalitäten am Groupware Competence Center der Universität Paderborn entwickelt wurden und die um entsprechende Schnittstellen zu dem EIS PAVONE RollUp & EIS sowie externen Datenbanken zu erweitern sind. Die praktische Orientierung der Arbeit spiegelt sich in der abschließenden Evaluation des PROTECOS anhand der Anforderungen eines realen Kooperationsunternehmens wider, die der Dokumentation der prototypischen Realisierbarkeit des PROTECOS sowie der definierten Gestaltungsanforderungen dient und Aspekte einer prototypischen Realisierung aufzeigt.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Generische Spezifikation betrieblicher Anwendungssysteme
Hammel, Christoph
Universität Bamberg (1999)
Abstract:
Die Anpassbarkeit und Wiederverwendbarkeit von Software kann in erheblichen Umfang zu einer höheren Qualität betrieblicher Anwendungssysteme beitragen. Infolgedessen wird im Software-Entwicklungsprozeß die Neuentwicklung zunehmend von der Anpassung und der Wiederverwendung bestehender Software-Komponenten verdrängt. Die Anpassbarkeit und die Wiederverwendbarkeit von Entwicklungsergebnissen während ihrer Erstellung ist eine methodische Frage, deren grundlegende und systematische Untersuchung zu den Kernproblemen des Software Engineering gehört. Ausgehend von einer Darstellung modell- und systemtheoretischer Grundlagen werden Merkmale des Begriffs Wiederverwendung abgeleitet. Dabei wird ein konstruktivistischer Modellbegriff nicht-wirtschaftswissenschaftlicher Provenienz für das Wiederverwendungsproblem nutzbar gemacht. Anschließend wird die Wiederverwendung als ein Formalziel bei der Entwicklung von Anwendungssystemen dargestellt. Als ein mögliches Lösungsverfahren für die Wiederverwendung im Rahmen des Software Engineering wird daraufhin ein allgemeiner Ansatz zur generischen Spezifikation betrieblicher Anwendungssysteme entwickelt. Zum Abschluß wird dieser allgemeine Lösungsansatz für die Methodik des Semantischen Objektmodells (SOM) nach Ferstl / Sinz spezialisiert. Mit Hilfe des vorgeschlagenen Ansatzes lassen sich komponenten- und objektorientierte Anwendungssysteme unter Nutzung der Wiederverwendung spezifizieren.
Comment:
1. Gutachter: Sinz 2. Gutachter: Ferstl
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ein regelbasiertes System zur Generierung von Orders für Lagerfahrzeuge - Fallstudie bei einem deutschen Automobilhersteller
Hayler, Christian
Universität Jena (1999)
Abstract:
Um auf Nachfrageschwankungen reagieren zu können müssen sowohl Hersteller wie Händler von Zeit zu Zeit Fahrzeuge auf Lager stellen. Da diese noch nicht kundenbelegt sind, liegt die Schwierigkeit darin, diese Fahrzeuge in der Art und Weise zu konfigurieren, dass ein möglichst schneller Verkauf erwartet werden kann. Zu diesem Zweck wurde das Speziefizierungsunterstützungstool LOGO (regalbasiertes System) entwickelt und bei einem deutschen Automobilhersteller eingesetzt, mit dem Vorschläge für markorientierte Lagerfahrzeuge erarbeitet werde.
Comment:
1. Gutachter: Ruhland 2. Gutachter: Haupt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Unternehmensweite Datenintegration - Modular-integrierte Datenlogistik in betrieblichen Informationssystemen
Heine, Peter
Universität Leipzig (1999)
Abstract:
Das Buch vermittelt eine Konzeption für die unternehmensweite Datenintegration in verteilten Informationssystemen. Mit der Problematik der Integration widmet sich der Autor einem der Megatrends in Unternehmen und einem Schwerpunktthema der Wirtschaftsinformatik. Zentraler Gegenstand ist die Datenlogistik, welche eine zweckmäßige Arbeitsteilung zwischen Anwendungssystemen mittels modularer Daten-, Funktions- und Ablaufstrukturen mit einer zentralen Komponente auf Basis des erweiterten Data Warehouse-Konzepts in Übereinstimmung bringt. Die Kombination flexibler Datenmodellierung im Unimu-Schema mit objektorientierten und prozeßorientierten Modellansätzen ermöglicht eine betriebliche Realität entsprechende, zielorientierte und umfassende Beschreibung der Datenlogistik. In einer umfangreichen Fallstudie werden die Ergebnisse anhand praktischer Erfahrungen in verschiedenen Projekten bestätigt.
Comment:
1. Gutachter: Ehrenberg 2. Gutachter: Aust 3. Gutachter: Uhr
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Referenzmodell für die Technische Dokumentation
Hitzges, Arno
Universität Stuttgart (1999)
Abstract:
Technische Dokumentation befindet sich gegenwärtig in einem Spannungsfeld zwischen technologischen Entwicklungen und wirtschaftlichen Einsparungen. Die wachsenden qualitativen Ansprüche der Kunden bezüpglich der Präsentation und Gestaltung von technischen Dokumenten und Produktkatalogen auf unterschiedlichsten Zielmedien sowie die Forderung, durch eine integrierte Dokumentationserstellung, die für einen effizienten Entwicklungs-, Produktions- und Serviceprozeß relevanten technischen Informationen allen Phasen der Wertschöpfungskette bereitzustellen, erhöhen die Notwendigkeit, historisch gewachsene Prozesse der Techischen Dokumentation neu und effizient zu gestalten. In der vorliegenden Arbeit wird ein ganzheitliches Referenzmodell für die Entwicklung und Produktion von technischen Dokumenten und Katalogen entworfen, welches den veränderten Anforderungen des ingenieurmäßigen Umgangs mit Information Rechnung trägt und den notwendigen Wandel in der technischen Dokumentation unterstützt. Im Gegensatz zu der bisher üblichen isolierten Betrachtungsweise werden Konzepte des Softwareengineering und des Dokumentenmanagements zu einem durchgängigen Gesamtprozeß verbunden, welcher den Zielen der Mehrfachverwendung von Informations- und Medienmodulen sowie der Publikation verschiedener Medien aus einer Quelle genügt. In systematischer Weise werden für die vier zentralen Prozeßbereiche - Technische Redaktion, Qualitäts-, Projekt- und Konfiguratonsmanagement - die durchzuführenden Aktivitäten und zu erstellenden Produkte detailliert spezifiziert und durch ein umfassendes Rollenkonzept an die am Prozeß beteiligten Akteure gekoppelt. Durch die Zuordnung von eindeutig definierten Methoden der Unified Modelling Laguage für die Durchführung der einzelnen Aktivitäten sowie die Bereitstellung von Referenzprodukten als exemplarische Ergebnisinstanzen werden die sonst meist nur schwach strukturierten und kaum evaluierbaren Arbeiten der Anforderungsanalyse und der Informationsmodellierung auf eine durchgängige, formale Basis gestellt und damit auch hinsichtlich ihrer Durchführungsqualität bewertbar und verifizierbar gemacht. Eine auf dieser standardisierten Modellierung aufbauende Normierung bei der Spezifikation von Struktur, Layout und Inhalt technischer Dokumente ermöglicht, die medienunabhängige Verwaltung der Informationsmodule. Damit die im Dokumentationsbereich vorliegenden großen Informationsmengen mit wenigen Arbeitsschritten hinsichtlich ihrer Darstellung durchgängig bearbeitet werden können, wurde ein Templatekonzept neu entwickelt, welches die einheitliche Präsentation der Informationsmodule auf unterschiedliche Plattformen organisiert. Auf Basis des entwickelten Prozeßmodells werden Anforderungen und Vorgaben zur Konfiguration einer die Vorgehensweise unterstützenden Dokumentenentwicklungsumgebung abgeleitet und durch Anpassung bereits auf dem Markt verfügbarer Werkzeuge umgesetzt. Die Vorgehensweise wurde in zahlreichen industriellen Projekten angewandt. Es zeigt sich hierbei, daß das Verfahren für die betroffenden Bereiche in angemessenem Maße verständlich war und zu einer deutlich verbesserten Qualität der erstellten Dokumentationen sowie zu einer erhelbich höheren Mehrfachverwendung und damit verbundene Kosteneinsparungen bei der Erstellung technischer Dokumente realisiert werden.
Comment:
1. Gutachter: Bullinger 2. Gutachter: Westkämper
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Möglichkeiten und Grenzen temporaler Geschäftsprozess-Modellierung.
Hoheisel, Holger
Universität Bern (1999)
Comment:
1. Gutachter: Knolmayer 2. Gutachter: Hasenkamp
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Temporale Geschäftsprozessmodellierung
Hoheisel, Holger
Universität Bern (1999)
Abstract:
Zeit wird zunehmend zu einem Wettbewerbsfaktor. Entwicklungszyklen und Durchlaufzeiten werden in Unternehmen permanent verkürzt. Somit gewinnt Zeit neben Raum immer mehr an ökonomischer Bedeutung. Informationssysteme in Unternehmen müssen folglich nicht nur die räumlichen Gegebenheiten von Geschäftsprozessen, sondern auch deren zeitliche Koordinierung berücksichtigen. Das vorliegende Buch ist aus einer Dissertation entstanden, welche sich im Rahmen der temporalen Datenmodellierung mit dem Faktor Zeit systematisch auseinandersetzt und versucht, ein umfassendes Bild der Realität von Raum und Zeit auf der Datenseite zu definieren. Das Buch kann als Beitrag angesehen werden, Theorie und praktische Bedeutung von Zeit bei der Modellierung von Geschäftsprozessen und Workflows einerseits zu berücksichtigen und andererseits in einem geschlossenen Konzept der Modellierung zeitliche Abläufe zu spezifizieren. Im Detail wird gezeigt, wie temporal erweiterte Geschäftsregeln und ebenso erweiterte Datenerhaltungskonzepte eine zeitbezogene Planung und Steuerung von Geschäftsprozessen unterstützen. Somit können Geschäftsregeln dieser Art einen zentralen Ansatzpunkt für künftige Gestaltungskonzepte und -techniken betrieblicher Informationssysteme darstellen. Das Buch richtet sich an theoretisch interessierte Praktiker und Wissenschaftler, da es sich mit dem Faktor Zeit nicht nur im Zusammenhang mit betrieblichen Informationsprozessen, sondern auch der Konzeptbildung zum Phänomen Zeit allgemein auseinandersetzt. Geschäftsregeln bestehen im vorgestellten regelbasierten Modellierungsansatz aus einer passiven Ereigniskomponente und zwei aktiven Komponenten, nämlich Bedingungen und Aktionen. Sobald nun ein Ereignis eintritt, wird mittels der Bedingungskomponente eine definierte Situation geprüft. Dadurch kann bestimmt werden, welche Aktion der Regel auszuführen ist. Ein Geschäftsprozess setzt sich aus mehreren Geschäftsregeln zusammen. Das vom Autor vorgestellte Zeitstempel-Konzept stellt die eigentliche Grundlage temporaler Datenmodellierung dar. Die Übertragbarkeit dieses Konzepts von der Datenmodellierung auf die Geschäftsprozessmodellierung erfolgt über ein sogenanntes Steuerungskonstrukt, welches Soll-Zeiten (Gültigkeitszeiten) mit den Ist-Zeiten der tatsächlichen Ausführung von Regelkomponenten (Transaktionszeiten) vergleicht, sodass bei Überschreitungen des Endes einer Gültigkeitszeit von Regelkomponenten Systemreaktionen ausgelöst werden können. Über diese indirekte Übertragung kann die Unterschiedlichkeit der Interaktionen zwischen Datenbank bzw. Workflow-Systemen mit der Diskurswelt überwunden werden. Die Gültigkeits-Zeitstempel schließen eine zeitliche Lücke, welche sich daraus ergibt, dass die Umsetzung von Geschäftsprozessen bzw. -regeln in aktive Workflows erst zu einem späteren Zeitpunkt als ihre Definition erfolgt., Somit wird auch Change-Management unterstützt sowie das Monitoring für ein Process-Reengineering. Der Autor hat diese komplexe Materie ansprechend und mit entsprechender Tiefe behandelt, sodass Wirtschaftsinformatiker die relevante Information aus der Theorie und Praxis zum Thema Modellierung von Zeit vorfinden. Auch Werkzeug-Hersteller werden jene Anforderungen finden, welche für die Entwicklung und Gestaltung von Repositories für die Geschäftsregeln als auch die zur Exekution erforderlichen Transaktionen relevant sind.
Comment:
1. Gutachter: Knolmayer 2. Gutachter: Hasenkamp
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ansätze zum Einsatz Internet-basierter Informationssysteme in betrieblichen Kommunikations-, Kooperations- und Koordinationsprozessen.
Itter, Ralf
Universität Göttingen (1999)
Comment:
1. Gutachter: Schumann
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Distributed Infrastructure Support for Electronic Commerce Applications
Jacobsen, Hans-Arno
Universität Berlin (1999)
Abstract:
The trend in computing infrastructure design has gone towards hiding implementation language, network protocol, operating system, and hardware platform features behind a unifying paradigm. Modern distributed infrastructures provide application developers with a common operational model, interoperability protocols, an interface definition language, and a set of core services. For the application development this achieves a high degree of transparency with respect to distribution, location, and computing resources. The overall goal of this approach is to increase application portability, enhance component interoperability, improve system integration, and ease distributed application development. However, the transparency thus gained makes it difficult for the application to directly manipulate and exploit the underlying computational resources and consequently influence overall system performance. The key problem is the tradeoff between simplicity of the programming model, achieved through transparency, and the scalability of the distributed system, achieved through non--transparency and direct resource control. In this thesis we have developed techniques that address this transparency tradeoff problem. Our approach provides more control over the involved computing resources, without abandoning the primary objectives of middleware platforms --- portability and interoperability for the application. Our techniques intervene at different levels of the middleware architecture to improve resource accessibility and manageability. First, we assess the lack of extensibility and open implementation characteristics in standard middleware platforms, show how and where to enhance platforms, and demonstrate resulting benefits. Second, we develop a framework that allows to automate the processing of, with ``computational hints', annotated interface specifications to better exploit application semantic (e.g., object synchronization) and to better manage available resources (e.g., QoS annotations). Third, we develop request scheduling algorithms that exploit computational server characteristics (e.g., cache, processor model) to increase server throughput. This demonstrates how to effectively combine the transparency characteristics of distributed computing infrastructures with the high--performance features of affordable server technology. We substantiate our observations with three original electronic commerce application case studies. These comprise: an electronic commerce framework for software leasing over the World Wide Web, a remote building energy management system, and a wireless computing infrastructure for the deployment of information services to non--stationary mobile clients.
Comment:
1. Gutachter: Günther
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Abstract Resource Language (ARL): Eine Sprache zur Spezifikation und Kontrolle von Biocomputing Experimenten.
Karges, Jonathan
Universität Münster (1999)
Abstract:
Diese Arbeit behandelt die Problematik des Ressourcenmanagements auf hohem technischen Abstraktionsniveau. Das Ergebnis ist die Definition und Prototyp Implementierung der interpretierten Skriptsprache Abstract Resource Language (ARL), die wesentliche Funktionalitäten von Betriebssystemshells, höheren Programmiersprachen für allgemeine und spezialisierte Anforderungen, sowie Workflow Management umfaßt. Abstract Resource Language ist eine Sprache für Ressourcenmanagement auf hohem technischen Abstraktionsniveau. Die Motivation für die Entwicklung von ARL kommt aus dem Anwendungsgebiet der Molekularbiologie. Die Absicht von ARL ist es, ein Werkzeug für Biologen bereitzustellen, daß die Beschreibung und Kontrolle von Biocomputing Experimenten stark vereinfacht. Ein Biocomputing Experiment spezifiziert eine zusammenhängende Folge von Rechenschritten auf biologischem Datenmaterial. Diese Schritte können parallel in einer verteilten Computerumgebung ausgeführt werden. Typische Schritte sind der Zugriff auf verschiedene genomische Datenbanken und die Verarbeitung von Datenobjekten verschiedener Formate und Herkunft (z. B.: Datenbanken, flache Dateien, spezielle Datencontainer wie Mengen, Listen oder Arrays, Standardausgabe von Betriebssystemprozessen.... ). Beispiele einer solchen Verarbeitung sind die effiziente Manipulation von Datenobjekten einschließlich Formatierung und Kombinierung von Daten, die Anwendung existierender Methoden für die Analyse und Präsentation von Daten, sowie die Speicherung von Ergebnissen. Die Datenbanken, mit denen Biologen arbeiten, sind extrem heterogen. Verschiedene Datenmodelle, Datenbankschemata, Zugriffsmethoden und Ausgabeformate sind typisch. Biologen benutzen häufig existierende Softwaresysteme beispielsweise zur Genomanalyse. Solche Systeme werden im allgemeinen unabhängig voneinander entwickelt. Verschiedene Kommunikationsmechanismen oder Ein-/Ausgabeformate können Inkompatibilitäten verursachen. Für die effiziente Arbeit mit Computern benötigen Biologen einen Mechanismus zur Definition von Arbeitsplänen auf einer hohen Ebene technischer Abstraktion. Diese Pläne sollen effizient von Computern ausgeführt werden. ARL soll Biologen erlauben, sich in erster Linie auf ihre wissenschaftlichen Aufgaben zu konzentrieren anstatt auf die Bewältigung von Programmieraufgaben. Einige wichtige Anforderungen umfassen Kollektionstypen (z. B. Mengen, Listen, Arrays), die die Speicherung relativ großer Ansammlungen heterogener Daten ermöglichen, repräsentationsinvarianten (oder semantischen) Vergleich von Daten, implizite Reformatierung soweit möglich, uniforme explizite Reformatierung, um ein Interface zu Reformatierungswerkzeugen bereitzustellen, verschiedene Methoden zur Interprozeßkommunikation einschließlich Schnittstellen zwischen verschiedenen Kommunikationsmechanismen, die von verschiedenen Prozessen genutzt werden, Kontrollflußkonstrukte, die verschiedene Formen von Nebenläufigkeit gestatten (z. B.: synchronisierte Parallelität, absolutes und relatives Scheduling). Persistente Variablen ermöglichen den einfachen Zugriff auf Daten vergangener Arbeitssessions. Transaktionsmanagent ist erforderlich, um Übergänge von einem definierten Zustand zu einem anderen definierten Zustand zu ermöglichen. Zusammen mit Savepoints erlaubt dies die spätere Fortführung komplexen Berechnungen nach einer gecrashten Arbeitssession. Als ein wichtiges Konzept für die Verwaltung von Ressourcen auf einem sehr hohen Niveau wird die Abstraktion von Ressourcen von ihrem Ort und ihrer Speicher- (Zugriff-) methode betrachtet, um technische Details vor dem Anwender zu verbergen. High-Level Sprachbefehle/-konstrukte reduzieren den für eine Spezifikation erforderlichen Zeitaufwand und erlauben kurze, klare Skripte. Viele der aufgelisteten Funktionalitäten werden von einer realisierten Prototyp Implementierung eines ARL Interpreters erfüllt. Diese Arbeit umfaßt vier Teile. Teil 1 beschreibt die Motivation für diese Arbeit. In Kapitel 1 wird die historische Entwicklung molekularbiologischer Arbeit unter Einsatz von EDV-Systemen erläutert. Die molekularbiologische Anwendergruppe, auf die diese Arbeit ausgerichtet ist, wird vorgestellt. Es folgt ein Beispiel eines Biocomputing Experimentes. Die Probleme der Nutzung existierender EDV-Systeme im molekularbiologischen Anwendungsfall und daraus resultierende Anforderungen werden genannt. Kapitel 2 dieses ersten Teils der Arbeit beschreibt den Stand der Forschung. Existierende Ansätze und Informatik-Techniken, die Lösungsansätze für Teilprobleme des in dieser Arbeit behandelten Themas beinhalten, werden vorgestellt. Die Problematik einiger bestehender Ansätze wird aufgezeigt und dient, teilweise unter Bezugnahme auf die in Abschnitt 1.1.2 geschilderten Computererfahrungen der Zielgruppe, als Rechtfertigung für eine Skriptsprache als geeigneten Mechanismus zur Spezifikation und reproduzierbaren Ausführbarkeit von Biocomputing Experimenten im allgemeinen und für die Entwicklung von ARL insbesondere. In Kapitel 3 wird eine in [KRS951 durchgeführte vergleichende Analyse von Shell-Sprachen und einigen anderen Sprachen für allgemeine und besondere Anforderungen, die bislang von der Zielgruppe hauptsächlich eingesetzt wurden, in gekürzter Form wiedergegeben. In Teil 11 wird die Sprachdefinition von Abstract Resource Language vorgestellt. Teil 111 geht auf das Design und die Prototyp Implementierung eines ARL Interpreters ein. Neben einer allgemeinen Übersicht in Kapitel 11 werden einige Teilbereiche der Implementierung vertiefend behandelt. Insbesondere wird die Realisierung der Syntaxanalyse mit potentiell unbegrenztem Lookahead in Kapitel 12, der Typenhierarchie in Kapitel 13, einer parallelen Pipe in Kapitel 14 betrachtet. Transaktionsmanagement in parallelem Kontext wird in Kapitel 15, absolutes und relatives Scheduling in Kapitel 16, sowie Persistenz und Sessionmanagement in Kapitel 17 vertiefend behandelt. In Teil IV, Kapitel 18 wird als ein reales Anwendungsbeispiel aus der Molekularbiologie noch einmal das bereits in Abschnitt 1.2 beschriebene Problem des Findens bzw. Verbesserns einer physikalischen Kartierung für ein Chromosomband aufgegriffen. Eine mögliche Umsetzung eines Lösungsansatzes in ARL wird beschrieben. Schließlich erfolgt in Kapitel 19 eine Zusammenfassung dieser Arbeit. Ein Ausblick über weitere Arbeiten, die auf dieser Arbeit aufbauend möglich sind, wird gegeben. Im übrigen wird in diesem Text davon ausgegangen, daß der Leser mit dem allgemeinen Sprachgebrauch im EDV-Bereich vertraut ist. Begriffe wie zum Beispiel Internet, FTP, WWW werden als bekannt vorausgesetzt. Ebenfalls wird die Kenntnis von üblichen Schreibweisen in mathematischen Formeln zugrunde gelegt. Molekularbiologisches Fachwissen hingegen ist nicht Voraussetzung, kann jedoch hilfreich sein. Dort, wo molekularbiologische Begriffe für das Verständnis unbedingt notwendig sind (Abschnitt 1.2), werden diese Begriffe erklärt und wird gegebenenfalls auf weiterführende Literatur zur Vertiefung verwiesen.
Comment:
1. Gutachter: Vossen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Das computergestützte Gruppengedächtnis - Grundlagen, Konzept, Prototyp.
Klosterberg, Marcus
Universität Hohenheim (1999)
Comment:
1. Gutachter: Krcmar
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Konzepte zur Fertigungssegmentplanung unter der besonderen Berücksichtigung von Kostenaspekten
Klug, Florian
Universität Linz (1999)
Comment:
1. Gutachter: Zäpfel 2. Gutachter: Heinrich
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Kooperationsmodelle im Mittelstand
Kocian, Claudia
Universität Saarbrücken (1999)
Comment:
1. Gutachter: Scheer
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Referenzmodelle für Produktionsprozesse zur Untersuchung und Gestaltung von PPS-Aufgaben.
Kuhn, Achim
Universität Paderborn (1999)
Comment:
1. Gutachter: Dangelmaier 2. Gutachter: Rosenberg
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Umweltmanagement im Firmenkundengeschäft
Kühne, Götz
Universität Wiesbaden (1999)
Comment:
1. Gutachter: Meyer zu Selhausen (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Data Mining im der Praxis - Ein Ansatz zur Nutzung der Potentiale von Data Mining im betrieblichen Umfeld.
Küppers, Bertram
Universität Frankfurt a.M. (1999)
Abstract:
In einer weitgefassten Definition ist Data Mining die überwiegend autonome Ermittlung von Regelmässigkeiten oder Auffälligkeiten in Daten. Diese gelten für einen möglichst großen Teil des Datenbestandes und bringen bislang unbekannte, potentiell nützliche und leicht verständliche Zusammenhänge in den Daten zum Ausdruck. Bislang hat sich der Data Mining-Ansatz in der Unternehmenspraxis nicht durchgesetzt. Ziel des Autors ist daher die Entwicklung von Hilfestellungen zum praktischen Einsatz von Data Mining-Methoden. Nach einer kurzen Einleitung (Kapitel 1) wird in Kapitel 2 der Data Mining-Begriff definiert und der Stand der Forschung umrissen. In Kapitel 3 geht der Autor auf die Bedeutung des Data Mining im betrieblichen Umfeld ein. Die Kapitel 4 bis 6 behandeln ausgewählte Data Mining-Methoden und Möglichkeiten zur Auswahl und Integration geeigneter Methoden. In Kapitel 7 wird auf Einsatzgebiete und Potentiale von Data Mining-Methoden eingegangen. Die Arbeit schliesst mit einer kurzen Zusammenfassung und einem Ausblick (Kapitel 8), einem Literaturverzeichnis (Kapitel 9) und einem Verzeichnis einiger Data Mining-Anbieter (Kapitel 10). Der Autor stellt die Sachverhalte durchweg nachvollziehbar dar, neigt aber an zahlreichen Stellen zu ungenauen, pauschalen und gelegentlich zu fehlerhaften Aussagen und Urteilen. So behauptet der Autor auf S. 52, dass Data Mining-Methoden für Laien verständlicher seien als statistische Ansätze. Hinzu kommt, dass entscheidende Begriffe, wie z.B. Datenreinigung, Hintergrundwissen oder Informationsgewinn, nicht oder nur ungenau definiert werden. Die Gliederung ist zudem nicht durchweg schlüssig. Beispielsweise ist fraglich, ob die Auswahl und Strukturierung der in Kapitel 4 behandelten Data Mining-Methoden sinnvoll ist. Der Autor unterscheidet Neuronale Netze (4.2), maschinelles Lernen (4.3), heuristische Ansätze (4.4), sonstige Ansätze (4.5) und unterstützende Ansätze (4.6). Nicht plausibel ist dabei die Zuordnung der Clusteranalyse zu unterstützenden Ansätzen, die neben der Fuzzy-Set-Theorie und der Optimierung als nicht eigenständiger Ansatz angesehen wird. Bei einigen der gewählten Anwendungsbeispiele (z.B. Personaleinsatzplanung und Case Based-Reasoning in Helpdesk-Systemen) ist kein Zusammenhang zum Data Mining zu erkennen. Insgesamt kann festgehalten werden, daß der Autor auf die nach wie vor vorhandene Diskrepanz zwischen der Theorie und dem Einsatz des Data Mining hinweist, diese Lücke aber nur teilweise zu schließen vermag.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modellierung als Kernfunktion einer systemorientierten Analyse und Bewertung der diskreten Produktion
Langemann, Timo
Universität Paderborn (1999)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Unternehmensbewertung: DCF-Methoden und simulativer VOFI - Ansatz.
Langenkämper, Christof
Universität Münster (1999)
Abstract:
Die entscheidungsorientierte Unternehmensbewertung erfordert ein theoretisch fundiertes und praktisch umsetzbares methodisches Instrumentarium, das realen Bewertungssituationen gerecht wird. Während bislang vorwiegend formelorientierte Methoden eingesetzt werden, finden finanzplanorientierte Verfahren kaum Beachtung. Christof Langenkämper analysiert die zunehmend in der Unternehmensbewertung verwendeten Discounted Cash Flow (DCF)-Methoden aus investitions- und finanzierungstheoretischer Sicht und zeigt die gerade im deutschen Steuersystem auftretenden Probleme einer realitätsgerechten Anwendung auf. Als alternatives und innovatives Konzept entwickelt er einen simulativen Ansatz auf der Basis von vollständigen Finanzplänen (VOFI), der durch die Einbeziehung differenzierter Finanzierungskonditionen und detaillierter steuerlicher Vorschriften eine universelle Anwendbarkeit aufweist und sich gleichermaßen durch Einfachheit, Transparenz und Erweiterungsfähigkeit auszeichnet.
Comment:
1. Gutachter: Grob
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Das Problem der Unschärfe in der Unternehmensbewertung : Ein Fuzzy-Expertensystem zur Findung des Grenzpreises bei Unternehmenskäufen.
Leisewitz, Marie-Claire
Universität Göttingen (1999)
Comment:
1. Gutachter: Biethan (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Wertanalyse an Informationssystemen
Lercher, Hans J.
Universität Graz (1999)
Abstract:
Das Werk von Lercher thematisiert das technische Informationssystem als zu integrierendes Subsystem in das Gesamtunternehmenssystem. Der Autor untersucht den Ansatz der Wertanalyse zur Erreichung eines Höchstmaßes an Effizienz und Effektivität des Informationssystems als Beitrag zum Erfolg des Gesamtsystems Unternehmen. Basierend auf dem ersten Kapitel mit einer motivierenden Einleitung und Darlegung des Untersuchungsablaufs erfolgt im zweiten Kapitel die Grundlegung der relevanten Begriffe wie der des Informationsbegriffs und der Kommunikation. Ferner werden hier die Begriffe des Informationsbedarfs sowie der Informationsbereitstellung thematisiert. Darauf aufbauend wird der Aspekt des Informationsnutzens im betrieblichen Umfeld diskutiert. Kapitel 3 geht schließlich auf das Informationssystem als zentrales Untersuchungsobjekt der Arbeit ein. Der Begriff des Informationssystems wird auf der Basis des systemtheoretischen Ansatzes diskutiert. Insbesondere findet hier das St. Galler Modell des Information Management aufgrund seines Verbreitungsgrades Verwendung. Das vierte Kapitel thematisiert den Ansatz der Wertanalyse (WA) als methodische Grundlage der nachfolgenden Untersuchungsschritte. Neben der Historie wird intensiver auf die Funktionenanalyse als Hauptbestandteil der Wertanalyse eingegangen. Des Weiteren erfolgt die Darstellung der Vorgehensweise der WA nach ÖNORM A 6757 sowie ein kurzer Überblick über spezielle Formen der WA: Overhead Value Analysis (OVA), später unter der Bezeichnung Gemeinkostenwertanalyse bekannt, WA an Informationsflüssen und Kommunikationsstrukturen (KIWA) und schließlich Energy Value Analysis. Kapitel 5 untersucht die Anwendung der Wertanalyse auf das Untersuchungsobjekt des Informationssystems. Hierbei wird zunächst auf allgemeine Projektaspekte als Basis für eine strukturierte Vorgehensweise eingegangen. Darauf aufbauend erfolgt die Vorstellung einer Vorgehensweise die als WAIS (Wertanalyse an Informationssystemen) bezeichnet wird und sich in weiten Teilen an das Vorgehen gemäß ÖNORM A 6757 anlehnt. Ergänzt werden die Ausführungen um Auswahlkriterien für den Einsatz des vorgestellten WAIS-Vorgehensmodells. Die Adaption des vorgestellten Ansatzes in das Praxisumfeld erfolgt im Kapitel 6 anhand von 2 Beispielen. Wenngleich diese Praxisbeispiele einige Aspekte durch entsprechende Projektbeispiele verdeutlichen, wäre für das Verständnis eine detailliertere Darstellung hilfreich. Zusammengefasst werden die Ergebnisse der Praxisbeispiele durch die Ableitung wesentlicher Erfolgskriterien für den Einsatz des WAIS-Vorgehensmodells.
Comment:
1. Gutachter: Wohinz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Internet-Technologien in der gesetzlichen Rentenversicherung - Effizienzsteigerung und Kostensenkung durch Internet-Technologie am Beispiel gesetzlicher Rentenversicherungsträger.
Von Lucke, Jörn
Universität Speyer (1999)
Abstract:
Für RVT bestehen sehr viele Ansätze zum Einsatz und zur Nutzung von Internet-Technologien. Die ausgearbeiteten Einsatzpotentiale im Public-Internet, im VDR-Extranet, im RVT-Extranet und im RVT-Intranet sind eine sinnvolle Ergänzung zu den herkömmlichen Informations- und Kommunikationsmitteln. Sie eröffnen in einigen Bereichen vollkommen neue Möglichkeiten. Internet-Technologien haben einen großen Einfluß auf alle Kommunikationsströme innerhalb und außerhalb eines RVT. Sie sind in der Lage, mit virtuellen Ansätzen die gesamte Organisation eines RVT zu verändern. Die Einführung von Internet-Technologien sollte als eine langfristige Investition des RVT in die eigene Zukunft betrachtet werden. Innovative RVT wie die amerikanische SSA haben bereits gezeigt, daß sich mit den heutigen Möglichkeiten der Internet-Technologien Beschleunigungen, Service- und Qualitätsverbesserungen, Organisationsverbesserungen sowie Kostensenkungen erzielen lassen. Der vorgestellte Katalog mit Einsatzpotentialen für RVT ist weder bindend noch endgültig. Er wird im Laufe der Zeit noch einige Korrekturen und Verfeinerungen erfahren. Neue Aspekte und zukünftige technologische Entwicklungen im Bereich der Verschlüsselungstechnologie, elektronischer Zahlungssysteme oder intelligenter Agenten können gegenwärtig und zu Beginn der Entwicklung noch nicht voll erfaßt werden. Neue Formen der Arbeitsteilung und der virtuellen Organisationen werden zu beträchtlichen Veränderungen führen. Internet-Technologien ermöglichen Ansätze zu einem modernen und kundenorientierten RVT. Zugleich erlauben sie den Aufbau eines völlig neuen und virtuellen RVT. Beim Entwurf der Homepages in TCP/IP-Netzwerken können sich die Mitarbeiter zwar an die aufgezeigten Vorgaben halten, dennoch eröffnet sich für Eigeninitiative und Kreativität der Beschäftigten ein großer Spielraum. Schließlich liegt ja auch einer der großen Vorteile der Internet-Technologien darin, daß Angebote jederzeit erweiterbar, korrigierbar und umstrukturierbar sind. TCP/IP-Netzwerke leben ganz besonders von der Aktualität der angebotenen Informationen und dem Einfallsreichtum ihrer Benutzer. Die dargelegten Einsatzmöglichkeiten lassen sich unter Berücksichtigung der jeweiligen Anforderungen auch auf andere Bereiche der Sozialversicherung oder der überwiegend mit Informationsverarbeitung beschäftigten öffentlichen Verwaltung übertragen. In all diesen Bereichen sollte dennoch darüber nachgedacht werden, ob die bisherigen Strukturen den Anforderungen des 21. Jahrhundert noch gerecht werden. Gerade die Einführung von Internet-Technologien kann Ausgangspunkt für eine grundlegende Neukonzeption von Aufbau- und Ablauforganisation sein, weil sich mit ihr erst viele neue Optionen für Organisationen eröffnen. Dabei darf allerdings auch nicht vergessen werden, daß bei allen Veränderungsmaßnahmen die Rechtssicherheit, der Bürgerservice, die Wirtschaftlichkeit und die Interessen der Mitarbeiter berücksichtigt werden müssen. Bei aller Euphorie ist weiterhin daran zu erinnern, daß die TCP/IP-Netzwerke nur Mittel zum Zweck sind. Sie sind ein Mittel zum Datenaustausch und zur Verbesserung der Kommunikation, weltweit oder intern. Sie sind aber kein Allheilmittel für angeschlagene RVT. Vielmehr hat die Technologie der Vernetzung keine Erfolgschancen, wenn nicht die erheblichen organisatorischen, mentalen und technischen Probleme zufriedenstellend gelöst werden. Jeder RVT muß Vor- und Nachteile einer Einführung von Internet-Technologien für sich abwägen und eigenverantwortlich eine Entscheidung treffen. Mit einer Entscheidung zugunsten oder gegen Internet-Technologien werden gleichzeitig die Weichen für den künftigen Erfolg und die Existenz des RVT gestellt. Dabei dürfen Risiken weder über- noch unterbewertet werden. Sie müssen auf jeden Fall erkannt und minimiert werden. Bei einer Entscheidung gegen Internet-Technologien sind insbesondere die damit verbundenen Konsequenzen zu berücksichtigen. Angesichts der ungeheuren Auswirkungen, aber auch des weltweiten Erfolges der Internet-Technologien, werden die Entscheidungsträger sich künftig noch öfters mit Internet-Technologien beschäftigen müssen. Viele Unternehmen haben bereits das enorme Rationalisierungspotential der Internet-Technologien erkannt, in denen sie eine flexible und herstellerneutrale Informationsplattform mit guten Zukunftsperspektiven sehen. Eine breite kommerzielle Nutzung der Internet-Technologien zeichnet sich bereits ab. Im wesentlichen bieten ihnen Internet-Technologien die Business-Funktionalität, die in der Vergangenheit vermißt oder einfach zu teuer war. Mehrere Studien zeigen, daß mit einem Intranet-Aufbau möglichst bald begonnen werden sollte. Je schneller ein Intranet Bestandteil der Verwaltungsinfrastruktur wird, desto eher sind Effizienzsteigerungen und Kostensenkungen realisierbar. Die außerordentlich diffizile Sicherheitsproblematik versetzt der allgemeinen Internet-Euphorie sicherlich noch den entscheidenden Dämpfer. Das hohe Sicherheitsniveau, welches im besonderen bei RVT in Deutschland besteht, soll und muß weiter erhalten blieben. Es darf durch ein Internet-Engagement auch nicht aufgeweicht werden. Die aktuelle Diskussion und die Errichtung von Firewalls bei RVT in Deutschland weisen bereits in die richtige Richtung. Angesichts der unübersehbaren Vorzüge der Internet-Technologien ist die Sicherheitsproblematik dennoch kein Grund, in einer rein abwartenden Haltung zu verharren. Haben sich durch die ständige Weiterentwicklung der Technologien erst Sicherheitsstandards endgültig durchgesetzt, wird die Angst vor einem unsicheren Internet verschwinden. Spätestens dann sollten RVT die Internet-Technologien zur wirtschaftlichen und sparsamen Erfüllung der ihnen gesetzlich vorgegebenen Aufgaben einsetzen.
Comment:
1. Gutachter: Reinermann 2. Gutachter: Hill
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Potentiale von Telekooperationssystemen für schwach strukturierte betriebliche Prozesse
Von Marwyk, Klaus
Universität Köln (1999)
Abstract:
Durch die zunehmende Globalisierung und verstärkte Dynamik vieler Märkte sehen sich Unternehmen großen Herausforderungen gegenüber, denen sie häufig mit flexiblen, dezentralen Strukturen und einer Ausrichtung an Prozessen zu begegnen versuchen. Telekooperationssysteme unterstützen derartige Organisationsformen, indem sie die Zusammenarbeit von Mitarbeitern über räumliche und zeitliche Grenzen hinweg verbessern. Es besteht jedoch in Wissenschaft und Praxis ein erhebliches Erfahrungs- und Erkenntnisdefizit, wie neuere Systeme wie z. B. Videokonferenzen, Application Sharing oder Dokumentenbanken erfolgreich in Leistungs- und Entscheidungsprozessen eingesetzt werden können. Diese Lücke versucht der Autor zu schließen. Im Laufe der Arbeit werden ? die Potentiale von Telekooperationssystemen für schwach strukturierte betriebliche Prozesse mit Hilfe einer umfassenden Analyse der empirischen Literatur und einer vom Autor durchgeführten Befragung von Experten aus der Praxis ermittelt, ? geeignete Maßnahmen zur Prozeßgestaltung aus den empirischen Ergebnissen abgeleitet, in ihren Wirkungszusammenhängen detailliert beschrieben und zu einem eigenständigen Gestaltungsansatz zusammengefaßt sowie ? im Rahmen des Projektes „Tele-Team-Support konkrete, durch ein integriertes Telekooperationssystem unterstützte Prozesse einer international operierenden Bank mit Hilfe des Gestaltungsansatzes neu modelliert. Die Arbeit zeichnet sich durch ihre breite theoretische Fundierung, die große Fülle wissenschaftlich interessanter und praktisch anwendbarer Erkenntnisse sowie die Geschlossenheit der Darstellung aus. Sie wendet sich sowohl an praktisch orientierte Wissenschaftler als auch an Fachleute und Entscheidungsträger in Unternehmen, die für die Prozeßgestaltung bzw. den Einsatz von Telekooperationssystemen verantwortlich sind.
Comment:
1. Gutachter: Seibt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Schema-unabhängige Anfragesprachen für relationale Datenbanken
Masermann, Ute
Universität Münster (1999)
Abstract:
Datenbanksysteme und deren Anfragesprachen zum Wiederfinden und Manipulieren der dort gehaltenen Datenbestände spielen eine wichtige Rolle bei der effizienten Informationsverarbeitung. Sie müssen sich den neuen Anforderungen anpassen, wie sie aus einem globalen, sehr heterogenen und sich ständig ändernden Informationssystem wie z.B. dem World-Wide-Web entstehen. Selbst die deklarative Anfragesprache Standardized Query Language SQL, die in den weit verbreiteten relationalen Datenbanksystemen eingesetzt und kontinuierlich weiterentwickelt wird, wird diesen Anforderungen nicht gerecht: Ohne Kenntnis über die Struktur der abgelegten Daten - dem Datenbankschema - ist es nicht möglich, Anfragen zu formulieren. Diese Kenntnis kann aber in modernen Informationssystemen nicht mehr stets vorausgesetzt werden, so daß Werkzeuge gefunden werden müssen, die diese Grenze überwinden. In dieser Arbeit wird die Sprache Reflexives SQL (RSQL) vorgestellt, die neben einer Erhöhung der Ausdruckskraft von SQL insbesondere die Formulierung von schema-unabhängigen Anfragen erlaubt. Dabei werden Anfragen in ausgezeichneten Programmrelationen gespeichert, die durch den neu eingeführten Operator EVAL ausgeführt werden können. Durch Manipulation dieser Relationen (und deren folgender Evaluation) werden Anfrageklassen erschlossen, die mit SQL alleine nicht auszudrücken sind. Der Vorteil einer effizienten Auswertung geht bei diesem Ansatz im Gegensatz zu anderen Erweiterungen nicht verloren. Da es sich herausstellt, das RSQL für Endanwender schwer zu handhaben ist, werden zwei Sprachen eingeführt, die eine syntaktische Vereinfachung darstellen, sich leicht in RSQL-Programme transformieren lassen und den Aspekt der schema-unabhängigen Anfragen vertiefen: Zum einen handelt es sich um eine Schlagwortsuche in relationalen Systemen. Zum anderen wird die Sprache Schema-independent SQL (SISQL) definiert, in der parametrisierte Anfragen (in denen keine oder nur wenig Schema-Informationen verwendet werden muß) an Datenbanken gestellt werden können. Diese Anfragen können ohne Änderungen der Formulierung auf Datenbanken unterschiedlichster Schemata angewandt werden. Die Schlagwortsuche und SISQL können u.a. dazu genutzt werden, generische Anfragen an relationale Datenbanken zu stellen, die über das Internet zugreifbar sind. Erstmals wird eine Integration von Datenbanksystemen in den Suchraum von Internet-Suchmaschinen ermöglicht, wie ein im Rahmen der Arbeit implementierter Prototyp beweist. Damit leistet diese Arbeit einen wichtigen Beitrag im Kontext von Suchaufgaben in heterogenen Informationsquellen.
Comment:
1. Gutachter: Vossen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Merkmalsorientierte Anforderungsnavigation zur Adaption betriebswirtschaftlicher Softwarebibliotheken
Mehlich, Sabine
Universität Würzburg (1999)
Comment:
1. Gutachter: Thome (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Value at Risk für Kreditinstitute - Erfassung des aggregierten Marktrisikopotentials.
Meyer, Christoph
Universität Wiesbaden (1999)
Comment:
1. Gutachter: Meyer zu Selhausen
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Einsatzmöglichkeiten und -grenzen von integrierten Workflow-Management-Systemen - Darstellung auf Basis von SAP Business Workflow
Meyer, Martin
Universität Bern (1999)
Abstract:
Das Konzept des Workflow-Managements und die zugehörigen Technologien haben in Wissenschaft und Praxis eine hohe Akzeptanz erreicht. Deshalb erstaunt es nicht, dass vermehrt auch Anbieter von betriebswirtschaftlicher Standardsoftware (z.B. SAP, Oracle, Baan) Workflow-Lösungen in ihre Systeme einbinden. Workflow-Management-Systemen dieser Art wird insbesondere auch wegen der Integrationsmöglichkeit in das Internet ein hohes Potential zugesprochen. Mit der vorliegenden Arbeit wird das Ziel verfolgt, Aussagen betreffend Anwendungs- und Problembereichen sowie Nutzen- und Risikopotentialen von integrierten Workflow-Management-Systemen zu erhalten, um daraus sowohl projekt- und anwendungsspezifische Gestaltungsempfehlungen als auch Empfehlungen für die Weiterentwicklung von integrierten Workflow-Management-Systemen ableiten zu können. Exemplarisch wird als Untersuchungsobjekt die Workflow-Komponente des R/3-Systems verwendet. Dieses Workflow-Management-System ist die bekannteste integrierte Lösung und weist prinzipiell einen hohen Verbreitungsgrad auf, weil es mit dem R/3-System ausgeliefert wird.
Comment:
1. Gutachter: Knolmayer 2. Gutachter: Popp
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Mikrogeographische Marktsegmentierung in Database Marketing von Versicherungsunternehmen
Munzer, Iris
Universität Erlangen-Nürnberg (1999)
Abstract:
Die Entwicklungen auf dem Versicherungsmarkt, die zum einen durch die EU- Binnenmarktrealisierung, zum anderen durch Veränderungen bei den Kundenbedürfnissen und -verhaltensweisen ausgelöst werden, verlangen von Versicherungsunternehmen eine verstärkte Kundenorientierung. Eine hierfür geeignete Strategie ist die differenzierte Marktbearbeitung auf der Basis einer Marktsegmentierung. Für eine solche differenzierte Bearbeitung der Konsumentengruppen bietet der Einsatz mikrogeographischer Systeme Versicherungsunternehmen entscheidende Vorteile im Vergleich zu den traditionellen Segmentierungsansätzen. Hervorzuheben ist dabei, dass der geographische Bezug des mikrogeographischen Segmentierungsansatzes die Erreichbarkeit und damit die Ansprachemöglichkeit relativ homogener Bevölkerungsgruppen mit Marketinginstrumenten sicherstellt. Eine erste zentrale Erkenntnis der Analyse der mikrogeographischen Marktsegmentierung ist, dass der Einsatz von am Markt hauptsächlich angebotenen Standardgeotypen nicht zufrieden stellend ist, da diese unternehmensspezifische Gegebenheiten nicht berücksichtigen. Vielmehr ist eine problemspezifische Segmentierung zu entwickeln. Dies erfordert die Integration mikrogeographischer Merkmale einer strukturierten Datenbank in ein Database Marketingkonzept. Der problemspezifische Ansatz impliziert darüber hinaus, dass ein mikro-geographisches Analysesystem im Unternehmen implementiert werden muss. Vor allem die Durchführung von mikrogeographischen Kundenstruktur- und Regionalanalysen steht dabei im Vordergrund. Die vor diesem Hintergrund durchgeführten empirischen Untersuchungen der Kunden- und Regionalstrukturen des kooperierenden Versicherungsunternehmens liefern die zweite zentrale Erkenntnis: Mikrogeographische Merkmale leisten einen Beitrag zur Erklärung von versicherungsspezifischem Kundenverhalten. Durch den problemspezifischen Zuschnitt können dabei die für eine konkrete Anwendung erklärungsrelevanten mikrogeographischen Merkmale aufgedeckt werden. Die problemspezifische Segmentierung erfordert jedoch, dass der Anwender steuernd in die Analysen eingreift. Hinzu kommt eine große Vielfalt und zum Teil eine hohe Komplexität der verwendeten statistischen Verfahren. Daher stellen die benutzer-freundliche Konzeption der Analysemodule und die anschauliche Ergebnisdarstellung entscheidende Erfolgsfaktoren für die Implementierung und die Akzeptanz eines mikrogeographischen Analysesystems dar. Bei einer prozessorientierten Betrachtung, welche die Kundenorientierung konsequenterweise fordert, zeigt sich, dass der Einsatz von mikrogeographischen Analyseergebnissen bei einer Vielzahl von Marketingprozessen in Versicherungsunternehmen Verbesserungspotentiale erschließen kann. Die dritte zentrale und unmittelbar praxisrelevante Erkenntnis besteht darin, dass die größten Einsatzpotentiale der Mikrogeographie bei der Planung der Absatzziele, der Vertriebssteuerung und der Produktentwicklung liegen. Eine Gesamtbetrachtung des Systems „Versicherungsunternehmen“ ergibt allerdings, dass der konkrete Einsatz mikrogeographischer Analysen nicht isoliert betrieben werden darf. Zwischen den Marketingprozessen existieren nämlich Wirkungsinterdependenzen. Zur vollen Ausschöpfung der Verbesserungspotentiale müssen die mikrogeographischen Anwendungen daher in einem System zur Lenkung von Versicherungsunternehmen zusammengeführt werden. Auf Basis der Ergebnisse dieser Studie ergeben sich einige Ansatzpunkte für weitere Forschungsarbeiten auf dem Gebiet der Mikrogeographie. Zum einen sollten die in der vorliegenden Arbeit vorgestellten Analysemodule auch auf weitere Daten zum Risikoverhalten - insbesondere zum Schadenverhalten - angewendet werden. Der Zusammenhang zwischen mikrogeographischen Merkmalen und Risikovariablen, der bereits in anderen, auf Standardgeotypen fußenden Studien festgestellt wurde, könnte dadurch problemspezifisch überprüft werden. Zum anderen erscheint es lohnenswert, die mikrogeographischen Analysemodule in anderen Branchen, die vergleichbare Rahmenbedingungen wie die Versicherungswirtschaft aufweisen, anzuwenden. Hierbei handelt es sich einerseits um Branchen, in denen Unternehmen zwar über umfangreiche Adressbestände und Daten zum beobachtbaren Kaufverhalten, aber nicht über weitere, ihre Kunden charakterisierende Informationen verfügen (z. B. Touristik oder Telekommunikation). Es wäre zu überprüfen, ob mikrogeographische Datenstrukturen diesen Unternehmen ebenfalls helfen, das Kundenverhalten zu erklären. Sofern dies der Fall ist, können die mikrogeographischen Analyseergebnisse zur Gestaltung differenzierter, bedarfsgerechter Leistungsangebote genutzt werden. Andererseits können auch Branchen mit Unternehmen, die ihre Leistungen über eine (eigene oder fremde) Außendienstorganisation bzw. Vertriebsstellen direkt an Privathaushalte vertreiben (z. B. Banken und Bausparkassen), herangezogen werden, um die Anwendbarkeit von mikrogeographischen Regionalanalysen zu evaluieren. Hier läge der Hauptnutzen der Mikrogeographie in der an regionalen Gegebenheiten ausgerichteten Steuerung und Kontrolle der Absatzorgane.
Comment:
1. Gutachter: Bodendorf 2. Gutachter: Buttler
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Transformation operativer Daten zur Nutzung in data warehouse
Müller, Jochen
Universität Bochum (1999)
Abstract:
Für Data Warehouse-Lösungen sind Daten aus den Informationssystemen im Unternehmen erforderlich, die der Abwicklung des Tagesgeschäfts dienen. Diese Daten müssen aufbereitet werden, damit sie entscheidungsunterstützend wirken und so den Erfolg des Data Warehouse-Projekts gewährleisten können. Jochen Müller vergleicht charakteristische Merkmale operativer und analyseorientierter Informationssysteme und untersucht die besondere Bedeutung der Schnittstellen zu den datenliefernden Vorsystemen. Anhand eines Konzepts für eine solche Schnittstellenkomponente beschreibt der Autor unterschiedliche Verfahren zur Extraktion der relevanten Daten und deren Transformation zu einem Datenbestand in einer zur Managementunterstützung angemessenen Qualität. Abschließend entwickelt der Autor ein Vorgehenskonzept, mit dessen Hilfe der Prozess der Gestaltung von Data Warehouse-Lösungen strukturiert werden kann.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Prüf- und Testprozesse in der Softwareentwicklung - Bestandsaufnahme von Gestaltungsbereichen und deren Einflussfaktoren
Müller, Uwe
Universität Köln (1999)
Abstract:
Die reale Situation bezüglich des Prüfens (statische analytische Qualitätssicherungsmaßnahmen) und Testens (dynamische analytische Qualitätssicherungsmaßnahmen) bei deutschen Softwareherstellern ist überwiegend unbekannt. Es existieren nur wenige Anhaltspunkte und Vermutungen über die Ausgestaltung dieser Qualitätssicherungsprozesse. Aus diesen Überlegungen heraus stellt sich die Frage, wie groß die Lücke zwischen dem möglichen "Stand der Kunst" und dem gelebten "Stand der Praxis" wirklich ist. An der Universität zu Köln wurde eine empirische Untersuchung durchgeführt, die folgende Ziele hatte: Darstellung des Praxisstandes der Prüf- und Testprozesse in der Softwareentwicklung, Aufzeigen von Verbesserungspotentialen sowie Schilderung der Ausgestaltung der Prüf- und Testprozesse in Abhängigkeit von spezifischen Gestaltungsparametern. Das Buch „Prüf- und Testprozesse in der Softwareentwicklung" gehört zu der Gruppe der explorativen Forschungsarbeiten und behandelt bisher wenig beachtete Aspekte der Softwarequalitätssicherung. Obwohl seit langer Zeit verschiedene Verfahren und Methoden für die Qualitätssicherung von Softwareprodukten existieren, besteht ein erhebliches Erfahrungs- und Erkenntnisdefizit bezüglich der tatsächlichen Ausgestaltung der Prüf- und Testprozesse in der Praxis. Der Autor entwickelt im ersten Schritt auf der Basis von Literaturauswertungen und Praxiserfahrungen ein Kontingenzmodell, das verschiedene Gestaltungsbereiche und Einflußfaktoren der Prüf- und Testprozesse beschreibt. Hierbei werden ausführlich Aspekte der Planung und Kontrolle von Prüf- und Testprozessen sowie der Einsatz von Metriken diskutiert. Außerdem werden die Bereiche Methoden, Techniken und Werkzeugeinsatz für die analytische Qualitätssicherung sowie Aufbauorganisation und Formalisierung der Prüf- und Testprozesse thematisiert. Schließlich geht der Autor auf den Gestaltungsbereich Arbeitsteilung und Mitarbeiterqualifizierung ein. Für die Untersuchung von Interdependenzen werden die Einflußfaktoren Alter und Größe der softwareentwickelnden Organisationen sowie die Art der Softwareprodukte und Entwicklungsprojekte ausgewählt. Unter Anwendung des Kontingenzmodells entwickelt der Autor 33 Untersuchungsthesen und konfrontiert sie im Rahmen einer breit angelegten empirischen Untersuchung mit der Praxis. Zu den befragten 74 Unternehmen gehören Vertreter aus allen Bereichen der Softwareentwicklung der deutschen Softwareindustrie. In einem zweiten Schritt analysiert der Autor detailliert die empirischen Daten und erarbeitet aussagekräftige Ergebnisse über die Gestaltungswirklichkeit der Prüf- und Testprozesse in der Software-entwicklung. Schließlich wird der Einfluß verschiedener Faktoren auf die Ausgestaltung einzelner Aspekte wie bspw. Prozeßformalisierung oder Arbeitsteilung untersucht und dargestellt. Das Buch beschreibt sehr ausführlich und detailliert den Stand der Praxis der Prüf- und Testprozesse in der Softwareentwicklung. Die Ergebnisse stellen für Praktiker eine geeignete Basis dar, um unternehmensinterne Abläufe im Bereich der Softwarequalitätssicherung analysieren und ver-bessern zu können. Die ermittelten Kennzahlen können zum unternehmensinternen Prozeßbenchmarking bzw. -assessment verwendet werden. Das Buch wendet sich an Praktiker, die sich mit dem Potential der analytischen Qualitätssicherung beschäftigen. Darüber hinaus ist das Werk auch als Entscheidungsunterstützung für die Gestaltung von Prüf- und Testprozessen geeignet und für Interessenten aus dem Bereich Forschung und Lehre empfehlenswert.
Comment:
1. Gutachter: Mellis 2. Gutachter: Seibt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integration von Zweckrechnungen in einem Standardsoftwaresystem für das Rechnungswesen
Oehler, Karsten
Universität Frankfurt a.M. (1999)
Abstract:
Das Rechnungswesen soll bekanntermaßen für unterschiedliche Zwecke Informationen bereitstellen. „ Different Costs for different purposes“ ist hierbei eine geläufige Forderung. Entsprechend intensiv ist die diskussion darüber geführt geworden, welche Zwecke das Rechnungswesen eigentlich erfüllen soll. Diese Zwecke sind mit einem uniformen Wertestrom jedoch nicht ausreichend unterstützbar. Ein Ansatz, diese Zweckpluralität zu unterstützen, ist eine konsequente Trennung in zweckneutrale und zweckbezogene Informationen. Diese erstmal von Schmalenbach geäußerte Idee ist verlockend, verspricht sie doch einen leichten Zugang zu entscheidungsrelevanten Kosteninformationen indem ein „Rohling“ quasi auf Abruf „veredelt“ werden kann. Eine solche Trennung führt jedoch dazu, dass man sich stark auf die Grundrechnung verlässt und die Sonderechnung nicht weiter betrachtet. Der Aufwand der Ableitung von Zweckrechnungen wird jedoch erheblich unterschätzt.
Comment:
1. Gutachter: Müller 2. Gutachter: Oberweis
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Anforderungen an integrierte Telekooperationssysteme zur Steigerung der Effektivität und Effizienz verteilter Zusammenarbeit
Padberg, Jürgen
Universität Köln (1999)
Abstract:
Die Kooperation von Menschen in Gruppen und Teams ist die dominierende Form der Leistungserstellung einer zunehmend dienstleistungsorientierten Gesellschaft. Ihre adäquate Unterstützung durch moderne Informations- und Kommunikationstechnologie ist eine der großen Herausforderungen der Wirtschaftsinformatik, wobei mit Blick auf Globalisierung und Dezentralisierung die Systeme zur Unterstützung verteilter Formen der Zusammenarbeit in den Vordergrund rücken. Die vorliegende Arbeit leistet hier einen Beitrag, indem Anforderungen an integrierte Telekooperationssysteme aufgestellt werden. Hierzu untersucht der Autor folgende Frage-stellungen: ? Was sind die Determinanten von effektiver und effizienter Zusammenarbeit? ? Welche Hindernisse entstehen durch die Verteilung? ? Wie müssen Funktionalitäten integrierter Telekooperationssysteme gestaltet werden, um diese Hindernisse zu überwinden? ? Welche Grenzen bestehen für die Unterstützung verteilter Zusammenarbeit? Die Arbeit folgt einem empirischen, iterativen Forschungsansatz. Auf der Basis einer soli-den Literaturanalyse führt der Autor fünfzehn Experteninterviews durch und systematisiert die explorativen Aussagen zu einem ebenso umfassenden wie detaillierten Bild. An-schließend werden die Erkenntnisse anhand eines konkreten Praxisfalls evaluiert, indem die Auswirkungen des Einsatzes des vom Autor maßgeblich gestalteten Systems Tele-Team-Support analysiert werden. Die gewonnenen Erkenntnisse sind hierdurch nicht nur für Wissenschaftler interessant, sondern auch für Praktiker unmittelbar verwendbar.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Prozeßorientiertes Benchmarking im Informationsmanagement - Entwicklung eines Rahmenkonzepts
Rehäuser, Jakob
Universität Hohenheim (1999)
Abstract:
In Unternehmen herrscht immer noch Unsicherheit darüber, wie die Leistung des Informationsmanagements im Verhältnis zu anderen Unternehmen zu bewerten ist. Dies liegt vor allem an den fehlenden Vergleichsmaßstäben zur Beurteilung der Güte des Informationsmanagements. Jakob Rehäuser erarbeitet ein Benchmarkingkonzept, um die Leistung des Informationsmanagements auf Prozessebene bewerten zu können. Ausgangspunkt ist der Benchmarkingansatz, der unter Berücksichtigung neuerer Diskussionen zur Prozessorientierung in das Informationsmanagement einfließt. Parallel hierzu werden Verfahren der computergestützten Gruppenarbeit und der quantitativen Datenanalyse einbezogen. Das entwickelte Konzept unterscheidet zwischen Prozessen der Leistungserstellung des Informationsmanagements und der Unterstützungsfunktion des Informationsmanagements für die Geschäftsprozesse eines Unternehmens.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Computergestützte Kooperation im Büro - Gestaltung unter Berücksichtigung der Elemente Aufgabe, Struktur, Technik und Personal.
Reif-Mosel, Anne-Kristin
Universität Bochum (1999)
Abstract:
Wissenschaft und Praxis diskutieren derzeit intensiv neue Gestaltungskonzepte für Unternehmungen, wobei auch kooperative Arbeitsformen erörtert werden. Für diese liegen mit Groupware neue Softwareinstrumente zur Untertstützung vor. Eine rein technische Betrachtung computergestützter Kooperation greift jedoch zu kurz. Dies gilt unabhängig davon, ob eine punktuelle Einführung erfolgen oder Kooperation in Kooperationseinheiten ein durchgängiges Prinzip der Leistungserstellung darstellen soll. Die Arbeit entwirft deshalb einen Bezugsrahmen der mehrdimensionalen Gestaltung computergestützter Kooperation und zeigt Gestaltungsvarianten unter Verwendung eines Systems vom Aktions- und Restriktionsparametern bezogen auf die Elementarten Aufgabe, Struktur, Technik und Personal.
Comment:
1. Gutachter: Gabriel (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Informations- und Kommunikationssysteme in Kooperation
Rey, Michael
Universität Köln (1999)
Abstract:
Kooperationen von Unternehmen sind schon immer ein aktuelles Thema in der Betriebswirtschaft. Kooperationsprozesse sind denselben Verbesserungsanstrengungen zu unterwerfen, die bei innerbetrieblichen Prozessen lange üblich sind. Dies betrifft vor allem deren geeignete Unterstützung mit Informations- und Kommunikationstechnik. Die gängigen Methoden zur Planung von IuK-Systemen sind jedoch vor dem Hintergrund eines Unternehmens der traditionellen betriebswirtschaftlichen Terminologie und nicht einer Kooperation entworfen worden. Diese Lücke soll von der vorliegenden Arbeit geschlossen werden, indem untersucht wird, welche kooperationsspezifischen Rahmenbedingungen Einfluß auf die Planung und den Einsatz von IuK-Systemen haben und welche Konsequenzen daraus zu ziehen sind. Dazu werden äußerst differenziert nutzer- und prozeßabhängige Anforderungen sowie kooperationsspezifische Teilsysteme herausgearbeitet. Diese Anforderungen werden dann in Anpassungen bzw. Erweiterungen zur strategischen und operativen Planung interorganisationaler IuK- Systeme umgesetzt. Damit bietet die Arbeit eine Fülle wichtiger Ergebnisse für alle, die sich in Praxis, Forschung oder Lehre konstruktiv mit Fragen der Organisation sowie der Informationsverarbeitung in Kooperationen befassen.
Comment:
1. Gutachter: Bastian (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Kundenbindungssysteme für Kreditinstitute
Richter-Mundani, Stefan
Universität Wiesbaden (1999)
Abstract:
Der Autor stellt den Zusammenhang zwischen Kundenzufriedenheit und Kundenbindung dar. Kundenorientierung, Dienstleistungsqualität und Beschwerdemanagement sind wichtige Bestandteile wirkungsvoller Kundenbindungssysteme. Die Kundenbindung wird für Kreditinstitute in Zeiten abnehmender Bankloyalität zum Schwerpunkt der Marketing- und Vertriebsaktivitäten. Daher gehört der Aufbau von Kundenbindungssystemen neben Benchmarking und Reengineering zu den dringlichsten Aufgaben der Unternehmensführung eines Kreditinstitutes. Stefan Richter-Mundani analysiert die ökonomische Relevanz der Kundenbindung und psychologische Einflußfaktoren wie kognitive Dissonanz, Image oder Vertrauen. Hierauf aufbauend stellt der Autor den Zusammenhang zwischen Kundenzufriedenheit und Kundenbindung in einem integrativen Kundenbindungssystem dar. Kundenorientierung, Dienstleistungsqualität und Beschwerdemanagement werden als wichtige Bestandteile wirkungsvoller Kundenbindungssysteme herausgestellt. Abschließend werden Maßnahmen zur Verbesserung der Kundenbindung aufgezeigt. Der Praktiker findet dabei interessante Ansatzpunkte zur Implementierung von Kundenbindungssystemen.
Comment:
1. Gutachter: Meyer zu Selhausen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
The economics, concept, and design of information intermediaries - a theoretic approach.
Rose, Frank
Universität Frankfurt a.M. (1999)
Abstract:
The thesis analyses the economics, concept, and design of information intermediaries. Information intermediaries are independent, trustworthy information processing third parties who mediate information between information sources and information seekers in order to overcome problems of information overload and the uncertainty about the quality of information. The analysis develops an economic model based on the microeconomic theory of search and applies it to information intermediaries who provide services like the search for information or the mediation of information. Examples of these information intermediaries can be found in multiple forms on the Internet. The model identifies the basic influencing factors of the intermediary's environment, investigates the impact of these environmental conditions on the information intermediary, and derives the optimal strategy of the information intermediary under different environmental circumstances.
Comment:
1. Gutachter: König
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Responsive Capacity Pricing: ein kanalbasierter Ansatz für die nutzenorientierte Preisgestaltung im Internet
Rothhaas, Frank
Universität Mannheim (1999)
Comment:
1. Gutachter: Niedereichholz
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Durchgängiges Management von Geschäftsprozessen auf Basis ereignisgesteuerter Prozessketten.
Rump, Frank
Universität Oldenburg (1999)
Comment:
1. Gutachter: Appelrath
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Geschäftsprozeßmanagement auf Basis ereignisgesteuerter Prozeßketten - Formalisierung, Analyse und Ausführung von EPK´s
Rump, Frank
Universität Oldenburg (1999)
Comment:
1. Gutachter: Appelrath
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Wiederverwendung fördernde Dokumentation objektorientierter Anwendungsentwicklung am Beispiel eines Liegenschaftsverwaltungssystem
Ruske, Natscha
Universität Osnabrück (1999)
Comment:
1. Gutachter: Stahlknecht 2. Gutachter: Rieger
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Metainformationssysteme im Umweltbereich
Röttgers, Jan
Universität Berlin (1999)
Abstract:
Der Zustand der Umwelt wird durch biologische, physikalische, chemische, geologische, meteorologische und sozio-ökonomische Daten beschrieben. Die Verarbeitung dieser Informationen ist die Basis aller umweltschutzbezogenen Planungen und Maßnahmen. Obwohl der Verringerung von Umweltbelastungen zweifellos auch andere Hürden als Informationsdefizite im Wege stehen, ist es offenkundig, daß Problemlösungen im Umweltbereich in zunehmendem Maße komplexe Informationsverarbeitungsaufgaben umfassen, die nur mit einer weitgehenden technischen Unterstützung zu bewältigen sind. Mit der Dissertation "Metainformationssysteme im Umweltbereich" soll ein Beitrag zum effizienten Umgang mit Umweltinformationen geleistet werden. Es gibt eine ganze Reihe an allgemeinen und sehr fachspezifischen Umweltinformationen. Diese Informationen liegen oftmals verteilt vor, sind nur einem bestimmten Kreis von Anwendern zugänglich und in vielen Fällen schwer recherchierbar. Die Informatik bietet Möglichkeiten, solche Informationsbestände effizient zu verwalten und mit Hilfe von Metainformationen aufzufinden. Ein Metainformationssystem ist ein Instrument, das (im Sinne eines Quellen- oder Fundstellenverzeichnisses) Informationen über Informationen liefern soll. Ein Metainformationssystem soll die große Menge relevanter Datenbestände überschaubar und damit verfügbar und nutzbar machen. Ziel eines Metainformationssystems ist es daher, fachliche und technische Transparenz über die verfügbaren Informations- und Methodenbestände zu schaffen, die Kommunikationsstrukturen inkl. der fachlichen und DV-technischen Ansprechpartner und die davon abhängigen Datenaustauschbedingungen zu dokumentieren und damit die vorhandenen Datenbestände auch tatsächlich verfügbar zu machen. Es werden im Rahmen dieser Dissertation nicht nur Metainformationssysteme im Umweltbereich in der Anwendung einer kritischen Überprüfung unterzogen. Vielmehr werden auch die Chancen von Metainformationssystemen für die öffentliche Verwaltung und die Nutzung von Umweltinformationen aufgezeigt. Insbesondere in den letzten Jahren wurden Metainformationssysteme stark weiterentwickelt. Sicherlich ist dieses eine Antwort auf die zunehmende Quantität an bereitgestellten Umweltinformationen bei gleichzeitig wachsenden Problemen mit der Qualität und Recherchierbarkeit dieser Informationen. Während Metainformationssysteme bei der Recherche nach Umweltinformationen an Bedeutung gewonnen haben, weisen sie in der Anwendung noch viele Defizite auf. Diese Schwächen bestehender Systeme werden sowohl bei der Konzeption eines Verweis- und Kommunikationsservices Umwelt (VKS-Umwelt) für das Umweltbundesamt (UBA) als auch bei der Entwicklung eines Kriterienkatalogs für die Erstellung neuer oder die Modifikation bereits im Einsatz befindlicher Metainformationssysteme für den Umweltbereich berücksichtigt.
Comment:
1. Gutachter: Günther
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Internetbasierte Self-Service-Systeme für kundenorientierte Dienstleistungsprozesse in öffentlichen Verwaltungen.
Saueressig, Gabriele
Universität Erlangen-Nürnberg (1999)
Abstract:
Ziel des Forschungsprojektes war es, das Self-Service-Potenzial von Dienstleistungsprozessen in der öffentlichen Verwaltung zu identifizieren und dessen Umsetzungsmöglichkeiten aufzuzeigen. Die Gestaltung von Self-Service-Konzepten im Verwaltungsbereich kann verstanden werden als Instrument zur Reorganisation von Geschäftsprozessen und damit zur Erzielung von Rationalisierungspotentialen und Leistungssteigerungen sowie gleichzeitig zur konsequenten Umsetzung der geforderten Kundenorientierung. Im Vordergrund stand dabei die Analyse, inwieweit durch eine IV-Unterstützung kundenbezogene Dienstleistungen zwischen Behörde und Bürger durch Verwendung des Internet effizienter gestaltet werden können und wie dadurch die Kundenzufriedenheit erhöht werden kann. Chipkarten- und Internetgestützte Self-Service-Ansätze stellen dabei eine Fortführung und gleichzeitige Erweiterung der klassischen Selbstbedienungsidee dar. Sie beinhalten Maßnahmen zur verbesserten Organisation und technischen Unterstützung der Abläufe. Der Grundgedanke kommunaler Self-Service-Konzepte ist, den Leistungsnachfrager von seiner Rolle als 'passiver Antragsteller' zu befreien, in der er nach dem Anstoß eines Vorgangs eine unbestimmte Zeit zu warten hat, bis der Leistungsanbieter in der Lage ist, sich mit dem Anliegen zu beschäftigen und die Leistung zu erbringen (Bring-Prinzip). Angestrebt wird, durch stärkere Einbeziehung des Leistungsempfängers in das Verwaltungshandeln im Sinne eines selbstgesteuerten Abrufs bzw. Anstoßes von Leistungen und der Beeinflussung des Leistungserstellungsprozesses (Hol-Prinzip) sowie einer gleichzeitigen Neuausrichtung der Prozesse an den geänderten Rahmenstrukturen, qualitativ hochwertige Dienste anzubieten. Man geht von dem anbieterbestimmten Push-Prinzip über zum nachfragerorientierten Pull-Prinzip. Ein Schwerpunkt der Arbeit war daher, ein Konzept für die IV-Architektur von Self-Service-Systemen in der öffentlichen Verwaltung zu entwickeln. So werden bei der Nutzung von Dienstleistungen in Self-Service spezifische Anforderungen an das Zugangssystem gestellt. Eine 'intelligente' Chipkarte kann eine wesentliche Komponente des Zugangssystems sein, welche die Zugriffe auf schützenswerte Anwendungen und Dienste ermöglicht und steuert. Daneben erfolgte eine Klassifikation der zu unterstützenden Verwaltungsprozesse, z.B. Meldeprozesse, Bewilligungsprozesse u.a. Für diese Klassen wurde das jeweilige Self-Service-Potenzial abgeleitet. Durch prototypische Implementierungen erfolgte die Demonstration möglicher Self-Service-Szenarien für ausgewählte Verwaltungsprozesse, z.B. der Einwohnerauskunft.
Comment:
1. Gutachter: Bodendorf 2. Gutachter: Klaus
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Neurofuzzy-Hybridsysteme - theoretische Grundlagen, Vergleich mit statistischen Problemlösungsklassen und Anwendung im Rahmen leistungsdiagnostischer Fragestellungen
Scharl, Arno
Universität Wien (1999)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Objektorientierte Referenzmodelle für das Prozeß- und Projektcontrolling - Darstellung der Konstruktion und Anwendungsmöglichkeiten von Referenzmodellen für die Anwendungsdomäne des computergestützten Controlling
Schlagheck, Bernhard
Universität Münster (1999)
Comment:
1. Gutachter: Grob
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Objektorientierte Referenzmodelle für das Prozeß- und Projektcontrolling - Grundlagen - Konstruktion - Anwendungsmöglichkeiten
Schlagheck, Bernhard
Universität Münster (1999)
Abstract:
Das Controlling stellt aufgrund seiner häufig unzulänglichen Konkretisierung und Operationalisierung eine besondere Herausforderung für die Entwicklung von Informationssystemen dar. Als Grundlage für die Implementierung von Informationssystemen dienen Informationssystem-Modelle, deren Erstellung mit Hilfe von Referenzmodellen entscheidend vereinfacht werden kann, da diese Expertenwissen in bereits modellierter Form repräsentieren. Der Autor zeigt die Grundlagen zur Konstruktion und Anwendung von objektorientierten Referenzmodellen auf und konkretisiert und operationalisiert den Anwendungsbereich des computergestützten Controlling. Auf der Basis der Unified Modeling Language (UML) konstruiert er Referenzmodelle für das Prozess- und Projektcontrolling und leistet damit einen wertvollen Beitrag für die Wiederverwendung von konzeptuellen objektorientierten Modellen bei der Erstellung von Controlling-Informationssystemen.
Comment:
1. Gutachter: Grob
edit comment | edit entry | edit Topics | edit Category | display Bibtex
ALFRED-Konzept und Prototyp zur Automatiserung unternehmerischer Geschäftsregeln
Schlesinger, Markus
Universität Bern (1999)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Recycling - Informationssysteme: Integration von Produktion und Recycling
Schneider, Bernd
Universität Münster (1999)
Comment:
1. Gutachter: Klein
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Virtual Team Assistant : intelligente Assistenzsysteme für die automatisierte Vorgangsbearbeitung.
Schneider, Georg
Universität Saarbrücken (1999)
Abstract:
Der Virtual Team Assistant ist ein System zur Unterstützung von Teamarbeit. Er fokussiert auf die Schnittstellen zwischen synchroner und asynchroner computerunterstützter Arbeit, am Beispiel von Workflow-Management-Systemen und multimedialen Audio/Video Desktopkonferenzsystemen. Der Virtual Team Assistant gewährleistet die Synchronisation der Arbeitsprozesse in mehrerlei Hinsicht. Einerseits findet eine zeitliche Synchronisation der Teammitglieder durch ein integriertes Terminmanagement statt. Es werden hierbei gemeinsame Termine vereinbart und in einem Kalender verwaltet, es wird auf Terminänderungen bei Teilnehmern durch Absagen der Konferenz und erneute Terminsuche eingegangen und die Konferenz wird automatisch zum festgelegten Zeitpunkt gestartet. Andererseits wird das Wissen der Teammitglieder über den bisherigen Arbeitsprozeß synchronisiert, indem sie gemäß ihres Kenntnisstandes automatisch entweder via Email und Web-Seiten oder durch eine automatisch generierte telefonische Benachrichtigung ,,gebrieft" werden, d.h. es wird Ihnen zur Konferenzvorbereitung der Kontext der zu erledigenden Tätigkeiten im Arbeitsprozeß geliefert, sowie eine Kurzbeschreibung der in der Konferenz zu behandelnden Themen. Nach der Konferenz wird anhand von in der Konferenz festgehaltenen Notizen ebenfalls automatisch ein Protokoll versandt, das sogenannte ,,De-Briefing", welches die getroffenen Entscheidungen zusammenfaßt und an die Mitarbeiter verschickt, um somit Hintergrundinformationen für zukünftige Arbeiten zur Verfügung zu stellen. Diese Funktionalität wird dadurch möglich, daß bei der Arbeit in Workflow-Management-Systemen Vergangenheit, Gegenwart und Zukunft eines Arbeitsprozesses bekannt sind. Der Virtual Team Assistant macht sich diesen Zustand zunutze, indem er auf die verschiedenen Informationsquellen der beteiligten Systeme zugreift, den Zugang vereinheitlicht und sie auf den aktuellen Informationsbedarf des einzelnen Teilnehmers zugeschnitten, präsentiert. Ein weiterer Punkt, den der Virtual Team Assistant aufgreift, ist die adäquate Selektion von Teams. Bisher werden Bearbeiter, speziell im Kontext der Workflow-Management-Systeme ausschließlich nach individuellen Gesichtspunkten selektiert, d.h. nach Kompetenzen, Rollen, Stellen, etc.. In Workflow-Management-Systemen ist es bisher nicht möglich, eine Aufgabe zur gemeinsamen, zeitgleichen Bearbeitung einem Team zu übergeben. Inwieweit Mitarbeiter erfolgreich in einem Team zusammenarbeiten, wurde ebenfalls noch nicht betrachtet. Dieses Kriterium stellt der Virtual Team Assistant in den Vordergrund, wenn Teammitglieder für Konferenzen selektiert werden. Bei dieser Selektion können aber auch zeitliche Aspekte oder Vorkenntnisse von Bearbeitern mitberücksichtigt werden. Die Problematik der Leistungsbeurteilung eines Teams wird durch das Versenden elektronischer Fragebögen nach der Konferenz operationalisiert, deren Auswertung zu einem Teamranking führt. Wird in der gleichen oder einer ähnlichen Situation wieder ein Team gesucht, wird auf dieses Ranking zugegriffen und es werden bereits ,,bewährte" Teams vorgeschlagen. Die Auswertung der Fragebögen wird ebenfalls an die Teammitglieder versandt, und es werden ihnen Maßnahmen vorgeschlagen, um ihre Teamarbeit zu verbessern.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ein WWW-basiertes Stadtinformationssystem zur individuellen Freizeitberatung - Grundlagen und Prototyp TourBO
Schuhbauer, Heidi
Universität Erlangen-Nürnberg (1999)
Abstract:
Informations- und Beratungssysteme wecken bei Touristen Interesse für eine Stadt, helfen ihnen, ihren Aufenthalt möglichst attraktiv zu gestalten, und unterstützen sie bei allen grundlegenden Problemen (Unterkunft, Verpflegung, Sehenswürdigkeiten) mit Ratschlägen. Wegen spezieller Eigenschaften der angebotenen Güter (Vertrauens- und Erfahrungsgüter, hoher Dienstleistungsanteil sowie mangelnde Lagerfähigkeit) spielen die Faktoren Information und Beratung in der Touristik-Branche eine bedeutende Rolle. In den bisher vorhandenen Stadtinformationssystemen wird zwar versucht, Touristen einen einfachen Informationsabruf zu ermöglichen. Jedoch bieten diese meist keine Beratung an. Zu Beginn der Arbeit steht eine Analyse bestehender Stadtinformationssysteme. Dabei wird der Versuch unternommen, ein Schema zu entwerfen, in das sich die Anwendungen einordnen lassen. Das Kapitel 3 stellt Dienste eines Online-Stadtinformationssystems vor, die im Rahmen des DFG-Projektes „Effiziente Elektronische Koordination in der Dienstleistungswirtschaft“ prototypisch entwickelt wurden. Zu Grunde gelegt sind die dabei zu beachtenden Anforderungen und Rahmenbedingungen. Auf die kritischste Funktionalität des Systems, die individuelle Generierung eines Aufenthaltsprogramms, geht Kapitel 4 genauer ein. Es diskutiert Lösungsansätze hinsichtlich der Dateneingabe, der Gestaltung eines Benutzerprofils, des Algorithmus zur Plangenerierung und der Validierung der eingesetzten Parameter. Während bei der Systemkonzeption bis dorthin darauf geachtet wurde, dass keine Datenspuren des Anwenders zurückbleiben, erörtert Kapitel 5 die Potenziale eines identifizierenden Zugangs zu einem Stadtinformationssystem. Es erläutert die datenschutzrechtlichen Rahmenbedingungen sowie technologische Aspekte der Implementierung und führt die Mehrwertdienste auf, die damit erreichbar sind. Das abschließende Kapitel 6 schildert Ansatzpunkte für die Marktforschung und legt Chancen dar, die sich aus einer Integration mit anderen Systemen ergeben.
Comment:
Gutachter: Prof. Dr. Dr. h. c. mult. P. Mertens, Emeritus Prof. Dr. W. Ritter
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Die Electronic Mail und ihre Rolle im internetbasierten Handel - Betriebswirtschaftliches und informationstechnisches Konzept
Schumann, Petra
Universität Erlangen-Nürnberg (1999)
Comment:
1. Gutachter: Mertens (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Die Auftragsabwicklung bei Unikatfertigern im Zulieferbereich des Chemiegroßanlagenbaus - eine organisatorische und objektorientiert informationszentrierte Analyse.
Skall, Michael
Universität Münster (1999)
Abstract:
Bei der Planung und dem Bau heutiger Chemiekomplexe sind maßgeschneiderte Lösungen bei kurzer Lieferzeit gefordert, die die aktuelle Situation des Kunden in kaufmännischer und technischer sicht berücksichtigen. die Auftragsabwicklung des mittelständischen Zulieferes für prozeßbestimmendes Equipment ist in das Concurrent Engineering des Kunden integriert. Auf Basis der technischen Kundenspezifikation und aus Erfahrungen von ähnlichen Aufträgen wird das Equipment bei möglichst kurzer Lieferzeit als Unikat neu konstruiert und gefertigt. Das Produkt ist bei der Auftragserteilung noch nicht vollständig definiert. Die einzelnen Entwicklungsschritte werden zwischen den Vertragspartnern abgestimmt. Die Konstruktionszeichnungen und Qualitätssicherungsmaßnahmen des Zulieferes werden vom Kunden auf Einhaltung der Spezifikation während der Auftragsabwicklung überprüft und genehmigt. Die Komplexität der Auftragsbearbeitung erfordert seitens der Unternehmung ein hohes Maß an Flexibilität. Der Unikatfertiger benötigt eine Einbeziehung der Planungsprozesse in den Aufgabenbereich der PPS. Bedingung für eine durchgängige DV-Unterstützung der verschiedenen Auftragsabwicklungsprozesse ist die Integration der verwendeten Datenstrukturen. Für die Unikatferiger bedeutet dies, daß das Unternehmen für alle Produkte generische Stücklistenstrukturen definieren muß, die für alle Prozesse des Unternehmens bindend sind. Diese Produktbeschreibungen legen Mindeststrukturen fest, die von den beteiligten Gruppen für die Definition des Unikats weiter verfeinert werden müssen. Jede Komponente der generischen Stückliste wird in Bezug auf Produktentwicklung, Materialanteil und Fertigung kalkuliert. Durch die Verbindung der generischen Stücklistenstruktur zum aktuellen Auftrag kann eine sukzessive Verfeinerung der Planwerte für die Fertigung erfolgen. Die Verbindung der Kalkulation zu den Arbeitsplänen und zu den Fertigungsaufträgen gestattet eine Integration von lang-, mittel- und kurzfristiger Auslastung der Fertigung. Bestellvorgänge, Arbeitsplanerstellung und Fertigmeldungen von Arbeitsgängen verfeinern und aktualisieren die Kostenstruktur und gestatten eine transparente Überwachung des Auftrags. Die Darstellung des Prozeßmodells für Unikatfertiger in Form eines objektorientierten Frameworks erfolgt mittels der "Unified Modeling Language" (UML). Die einzelnen Abwicklungsstufen werden durch Activity Diagramme beschrieben.
Comment:
1. Gutachter: Becker 2. Gutachter: Grob
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Organisation aktiver Umwelthandbücher: ein Beitrag zum prozeßorientierten Dokumentenmanagement
Sonntag, Ralph
TU Dresden (1999)
Abstract:
Die Arbeit ist der ökologischen Betriebswirtschaftslehre und der Wirtschaftsinformatik zuzuordnen. Der Autor diskutiert die computerunterstützte Organisation betrieblicher Umwelthandbücher auf Basis aktueller Methoden und Werkzeuge des Dokumentenmanagements als Teildisziplin des Informationsmanagements in Unternehmen. Untersuchungsobjekte sind die informationstechnischen Automatisierungspotentiale im Umweltinformationssystem von Unternehmen, insbesondere die medienneutrale Erstellung, Nutzung und Pflege von Umwelthandbüchern in durchgängigen elektronischen Publikationsprozeßketten. Als Ergebnis der Arbeit liegt ein Integrationsmodell zwischen prozeß- und strukturorientiertem Dokumentenmanagement auf Basis der Schnittstelle 1 der Workflow Management Coalition vor, womit eine abgestimmte Automatisierung der Prozesse im betrieblichen Umweltinformationssystem sowie der diese maßgeblich beschreibenden Dokumentationen möglich wird.
Comment:
1. Gutachter: Uhr (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Marktsegmentierung mit neuronalen Netzen
Stecking, Ralph
Universität Bremen (1999)
Abstract:
Ralf Stecking untersucht, unter welchen Bedingungen Radiale-Basis-Funktionen-Netze zur Lösung von Marktsegmentierungsproblemen beitragen können, und zeigt, dass die Segmentlösung der Neuronalen Netze den Ergebnissen aus Cluster- und Diskriminanzanalyse überlegen ist. Neuronale Netze konnten sich bereits in zahlreichen betriebswirtschaftlichen Anwendungsbereichen etablieren. Ralf Stecking untersucht, unter welchen Bedingungen Radiale-Basis-Funktionen-Netze zur Lösung von Marktsegmentierungsproblemen beitragen können. Die spezielle Struktur dieser bekannten Variante Künstlicher Neuronaler Netze ermöglicht es, komplexe Datenbestände zu segmentieren und zugleich die gewonnenen Segmente zu beschreiben. In zwei praxisnahen Anwendungsbeispielen zeigt sich, dass die Segmentlösung der Neuronalen Netze den Ergebnissen aus Cluster- und Diskriminanzanalyse überlegen ist.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Multi Channel Management : mehrdimensionale Optimierung der Kundenbeziehung zur nachhaltigen Steigerung der Profitabilität im Retail Banking
Stäger, Christina C.
Universität Zürich (1999)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Design komponentenbasierter Softwaresysteme unter besonderer Berücksichtigung des CORBA-Standards
Tapper, Christoph
Universität Mannheim (1999)
Abstract:
Mit CORBA, der COmmon Object Request Broker Archtecture, steht eine inzwischen ausgereifte Technologie zur Verfügung, die es Softwaremodulen, die in unterschiedlichen Programmiersprachen erstellt werden , ermöglicht in heterogenen verteilten Systemen miteinander zu kommunizieren. Ein weiterer neuer Standard ist die Unified Modeling Language(UML) als Notation für die graphische Softwaremodellierung. Die UML wurde als Zusammenführung der wichtigsten Notationen entwickelt und bietet sich auch als Basis für die Erstellung verteilter Anwendungen an. Insbesondere enthält sie für diesen Zweck unterschiedliche Modularisierungskonstrukte sowie Verteilungsdiagramme, mit denen die Zuordnung von Software- und Hardwarekomponenten dargestellt wird. Jedoch sind die Anforderungen, die sich beim Erstellen von CORBA-basierten verteilten Systemen für den Prozeß der Anwendungsentwicklung ergeben. nicht mehr allein mit den bisher üblichen Methoden umzusetzen, da viele neue Aspekte zu betrachten sind. Im Mittelpunkt des Buches steht das Modellieren der statischen Aspekte der Architektur in der Designphase der Softwareentwicklung, insbesondere für verteilte Systeme, die auf Basis der CORBA-Technologie realisiert werden. Hierbei wird die Aufteilung der Anwendung in Komponenten, das Festlegen der Schnittstellen zum Exportieren der jeweiligen Funktionen, das Spezifizieren der Zusammenarbeit der Komponenten sowie das Zuordnen der software auf das zugrundeliegende Rechnersystem betrachtet. Der objektorientierte Designprozess und die UML-Notation werden hinsichtlich ihrer Eignung für die Modellierung komponentenbasierter Anwendungen auf CORBA-Basis untersucht. Aus einer Besprechung der vielfätigen Möglichkeiten, die CORBA für das Erstellen verteilter Anwendungen in heterogenen Umgebungen und zur Lösung typischer Fragestellungen eröffnet, werden anforderungen an das Design und die Modellierung der Anwendungskomponeten abgeleitet. Da in den traditionellen Design-Prozessen und der UML CORBA-spezifische Überlegungen nahezu völlig fehlen, werden eine geänderte Abfolge der Erstellung von UML-Diagrammen und - mit Hilfe von UML-Stereotypen - eine moderate Erweiterung der Notation für die Modellierung der Archtektur CORBA-basierter Systeme vorstellen.
Comment:
1. Gutachter: Schader 2. Gutachter: Niedereichholz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Organisations- und Informationssystemgestaltung - theoretische Grundlagen und integrierte Methoden
Teubner, Alexander
Universität Münster (1999)
Abstract:
Wirtschaftliche Strukturänderungen stellen heute völlig neue Anforderungen an die Organisationsstruktur von Unternehmen aller Branchen und Größen, die oft nur durch den gezielten Einsatz der Informations- und Kommunikationstechnik (IK-Technik) erfüllt werden können. Allerdings weist das sogenannte "Produktivitätsparadoxon der Informationstechnologie" darauf hin, daß eine deutliche Diskrepanz zwischen den Investitionen der Unternehmen in die IK-Technik und den erreichten Produktivitätssteigerungen besteht. Grund dafür ist, dass der Einsatz der IK-Technik nicht per se zu den gewünschten Wirkungen führt, sondern diese sich erst aus dem Zusammenspiel von Organisation und betrieblichen Informationssystemen ergeben. Historisch gesehen werden Organisationsgestaltung und Informationssystementwicklung jedoch getrennt in der betriebswirtschaftlichen Organisationslehre und der Informatik behandelt. In der Organisationslehre gibt es spezifische Gestaltungskonzepte, die jedoch technische Aspekte nur unzureichend berücksichtigen. Methoden der Informationssystementwicklung in der Tradition der Informatik vernachlässigen hingegen organisatorische Gestaltungsaufgaben. Die Arbeit rekonstruiert die wesentlichen Gestaltungsansätze und -prinzipien dieser Disziplinen und systematisiert die gedankengeschichtlichen Hintergründe und Entwicklungen. Sie belegt, wo sowohl die betriebswirtschaftlichen Methoden der Organisationslehre als auch die Informatik-Methoden in der Tradition des Software Engineering für sich genommen zu kurz greifen und begründet die Notwendigkeit einer übergreifenden Gestaltungsdisziplin, die als Organization and Information Engineering (OIE) bezeichnet wird. Das OIE wird als (Teil-)Disziplin der Wirtschaftsinformatik eingeführt und als solche in den wissenschaftlichen Konturen skizziert. Ausgehend von den vorgestellten Methoden der Organisationslehre und des Software Engineering werden Ansatzpunkte für eine Methodenintegration aufgezeigt. Daran anknüpfend wird ein konkreter Vorschlag für eine integrierte Methodik, das Prozeßorientiertes Organization & Information Engineering (POISE), entwickelt. Ein in die Beschreibung der Methodik integriertes Fallbeispiel vermittelt dabei den empirischen Bezug und verdeutlicht die praktische Anwendbarkeit.
Comment:
1. Gutachter: Klein (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Prozeßorientierte Telekommunikationsplanung für übergreifende Logistiksysteme
Thomé, Frank
RWTH Aachen (1999)
Abstract:
Schlagwörter: 'Logistiksystem', 'Prozessmodell', 'Telekooperation', 'Unternehmenskooperation'
Comment:
1. Gutachter: Bastian (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Einsatzmöglichkeiten der Fuzzy-Set-Theorie zur Modellierung von Unschärfe in Unternehmensplanspielen
Tietze, Martin
Universität Göttingen (1999)
Comment:
1. Gutachter: Biethan (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Integrierte Sicherheitskonzeptionen für Unternehmen
Vossbein, Jörn
Universität Köln (1999)
Abstract:
Sicherheit von Informationsverarbeitungssystemen ist das Kernthema moderner Informationsverarbeitung. Die Abhängigkeit der Institution von der Verfügbarkeit dieser Systeme steigt ständig durch Hinzunahme neuer Anwendungslösungen. Zunehmend mehr werden sensible Daten verarbeitet, womit die Ansprüche an die Vertraulichkeit der Daten wachsen. Außerdem fordern sowohl die Vertraulichkeit als auch die Abhängigkeit von den Systemen ein hohes Maß an Integrität der Daten und Programme. Das Buch legt dar, wie es durch ein entsprechendes, konzeptionelles Vorgehen möglich ist, das technisch unterstützte Informationsverabeitungssystem so abzusichern, dass mit einem vertretbaren Aufwand ein großer Teil der Ursachen für Sicherheitsprobleme von IV-Systemen beherrschbar wird.
Comment:
1. Gutachter: Seibt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integrierte Dokumenten- und Ablaufmodellierung im Electronic Commerce.
Weitz, Wolfgang
Universität Karlsruhe (1999)
Abstract:
Bei der Bemühung um eine systematische Untersuchung und Verbesserung betrieblicher Abläufe spielen Methoden zur formaler Modellierung von Geschäftsprozessen eine wichtige Rolle. Ein solches Modell trägt zur Verbesserung des Verständnisses und zur Dokumentation eines Ablaufs bei, es ist darüber hinaus aber auch Voraussetzung für den Einsatz von Analyseverfahren, um interessierende Eigenschaften untersuchen zu können. Schließlich kann es als Ausgangspunkt für eine effektive Rechnerunterstützung bei Entwurf, Ausführung und Kontrolle von Geschäftsprozessen durch sogenannte Workflow-Management-Systeme verwendet werden. Viele der bekannten formalen Methoden zur Modellierung betrieblicher Abläufe beschränken sich darauf, zwar den Fluß von Dokumenten darstellen, die Doku¬mente selbst aber als unstrukturierte oder höchstens mit atomaren Attributen versehene Marken abzubilden, wodurch ein großer Teil der Operationen zur Dokumentenmanipulation nicht innerhalb des Modells dahrgestellt werden kann. Im Rahmen der vorgelegten Arbeit wurde eine auf höheren Petri-Netzen basierende graphische Sprache zur Modellierung von Abläufen entwickelt, die auch eine explizite Darstellung der logischen Struktur von Dokumenten umfaßt. Da¬durch werden insbesondere Zugriffe auch auf Teile eines Dokuments und deren weitere Verarbeitung im Modell explizit nachvollziehbar. Das Ablaufmodell trägt damit auch besonders den Erfordernissen des sich gerade entwickelnden Bereichs "Electronic Commerce" Rechnung, wo Darstellung und Untersuchung Internet-basierter Interaktionen zwischen mehreren Parteien ("business-to-business" bzw. "business-to-consumer") und der dazu verwendeten Protokolle für Vorgänge wie Bestellabwicklung, Zahlung etc. von Interesse sind, die überwiegend auf dem Austausch strukturierter Dokumente beruhen. Zur Entwicklung Internet-basierter Workflows ist eine entsprechende Werkzeug¬unterstützung notwendig. Daher wurde im Rahmen der Arbeit ein Prototyp eines flexiblen, verteilten Modellierungs- und Simulationswerkzeugs auf der Ba¬sis entworfen und implementiert, das insbesondere die kooperative Bearbeitung petrinetzbasierter Workflowmodelle durch mehrere räumlich getrennte Entwickler über das Internet unterstützt und dabei die Einbeziehung von Anwendern in den Entwicklungsprozeß durch die Möglichkeit zur einfachen Einbindung benutzerorientierter Visualisierungskomponenten ermöglicht.
Comment:
1. Gutachter: Stucky
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Leistungsrechnung - ein prozessorientierter Ansatz
Wieding, Anja
Universität Münster (1999)
Abstract:
Fixkostenimmanente und absatzmarktbedingte Unternehmensrisiken erfordern eine intensive Auseinandersetzung mit den Leistungen eines Unternehmens. Im Gegensatz zur Kostenrechnung wurde die Leistungsrechnung innerhalb des Rechnungswesens bisher aber nur peripher diskutiert. Die Folge ist, dass das Kostendenken dominiert, Art, Umfang und Struktur von Leistungen und Leistungsbeziehungen hingegen wenig transparent sind. Anja Wieding entwickelt eine eigenständige Konzeption der dem internen Rechnungswesen zugehörigen Leistungsrechnung, in der sämtliche Leistungen und die zwischen ihnen bestehenden Beziehungen mengen- und wertmäßig erfasst werden. Auf der Basis eines prozessorientierten Ansatzes erarbeitet die Autorin ein Rechnungskonzept, das die Leistungsseite betrieblicher Transformationsprozesse erfasst und für verschiedene Rechnungszwecke bereitstellt.
Comment:
1. Gutachter: Grob
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Strategisches Bankmanagement - Ein technologiebasierter Ansatz (Digital Business in Banken: Informationstechnologie -Erfolgsfaktor für die strategische Positionierung)
Wings, Heinz
Universität Regensburg (1999)
Abstract:
Nicht nur das marktliche Umfeld ändert sich gravierend, sondern auch die Technologie für die Erstellung und den Vertrieb von Bankmarktleistungen. Über Fusionen erschließen sich Kreditinstitute einen transnationalen Markt und versuchen Skaleneffekte in den Vertriebs- und Produktionskosten zu realisieren. Filialnetze werden ausgedünnt. Retail Banking „über den Draht“ verdirbt die Margen. Handelsketten und Automobilhersteller nutzen ihre IT-Kompetenz und machen den Banken nicht nur im Kreditgeschäft Konkurrenz. Aus all diesen und noch etlichen anderen Gründen sind die Banken zu erheblichem Investment in ihre Informatik bereit. Vor diesem Hintergrund gewinnt die Frage nach einer Informatikstrategie auf der Grundlage eines neu ausgerichteten strategischen Bankmanagements eine zentrale Bedeutung. Kompetente Antworten hierauf sind immer willkommen. Besonders wertvoll werden sie, wenn sie jemand erteilt, der zum einen die notwendige Problemnähe besitzt und zum andern sein Erfahrungswissen mit den Methoden der Wissenschaft bereichert.
Comment:
1. Gutachter: Bartmann
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Kundenorientierung in logitischen Prozeßketten
Zadek, Hartmut
TU Berlin (1999)
Abstract:
Kundenorientierung in logistischen Prozeßketten: Ein Instrumentarium zur Entscheidungsunterstützung und zum Controlling für die strategische Logistiktiefengestaltung in Industrieunternehmen Schlagwörter: Kundenorientierung; Prozeßketten; Controlling
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entscheidungsprobleme in kapazitätsbeschränkten Verkehrs- und Kommunikationsnetzen: Entwicklungen neuer Lösungsverfahren
Amberg, Anita
TU Darmstadt (2000)
Abstract:
Effizient strukturierte Transport- und Kommunikationsnetze gewinnen in Zeiten zunehmender Globalisierung und weltweiter Vernetzung immer mehr an Bedeu¬tung. Daneben ist in den letzten Jahren verstärkt die Ergänzung von problemspezi¬fischen Verfahren mit problemunabhängigen MetaStrategien untersucht und mit großem Erfolg eingesetzt worden. Vor diesem Hintergrund steht die Neuentwicklung von Verfahren für zwei kapa¬zitätsbeschränkte Entscheidungsprobleme: Das Capacitated Minimum Spanning Tree Problem ist ein Netzwerkdesignproblem, das zentrale und periphere Einheiten durch kapazitierte Baumstrukturen verbindet; das Capacitated Are Routing Pro¬blem ist ein kantenorientiertes Tourenproblem, in dem die Strecken eines beste¬henden Netzes möglichst günstig durchlaufen werden sollen. Metastrategien liefern bei beeinflußbarem Zeitaufwand approximative Ergebnisse. Ihre Effizienz wird insbesondere am Beispiel des Netzwerkdesignproblems unter¬sucht. Lokale Suchverfahren (Simulated Annealing und Tabu Search) sowie Ver¬fahren der Heuristischen Wiederholung (Iterative Greedy Heuristiken) erlauben eine Vielzahl von Variationen hinsichtlich Zeitdauer, Parametrisierung, Nachbar¬schaftsstruktur und Randomisierung und erzielen insgesamt sehr gute Ergebnisse. Die eingesetzten Metastrategien sind auf nahezu alle kombinatorischen Optimie¬rungsproblemen anwendbar, so daß sich wertvolle Hinweise für die Lösung ande¬rer betriebswirtschaftlicher Problemstellungen gewinnen lassen. Anita Amberg gelingt es darüber hinaus, für das Tourenproblem neue problemspe¬zifische Verfahren zu entwickeln, die gegenüber bekannten Verfahren deutliche Verbesserungen erzielen. Das Buch richtet sich an Dozenten und Studierende der Betriebswirtschaftslehre mit den Schwerpunkten Logistik, Operations Research und Wirtschaftsinformatik sowie an Logistiker in Unternehmen bzw. Unternehmensberatungen, die sich mit der Optimierung von Netzwerken oder der Bestimmung approximativer Lösungen für kombinatorische Optimierungsprobleme beschäftigen.
Comment:
1. Gutachter: Domschke 2. Gutachter: Voß
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Zukunftskonzept Multimedia - Geschichtliche Entwicklungsstufen, Anwendungsfelder und Anwenderpräferenzen
Aunkofer, Richard
Universität Regensburg (2000)
Comment:
1. Gutachter: Lehner (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Die Nutzung von Informationstechnologie zur Verbesserung der Situation kleiner und mittlerer Unternehmen in der europäischen Forschungsförderung
Bauer, Axel
Universität Frankfurt a.M. (2000)
Abstract:
Die Arbeit beschäftigt sich mit der Situation von kleinen und mittleren Unternehmen (KMU) in der europäischen Forschungsförderung und der Frage, wie sich deren Teilnahmechancen durch den Einsatz moderner Online-Medien zur Informationsbeschaffung verbessern lassen. Die Förderpolitik in der Europäischen Union zeichnet sich dadurch aus, dass erstens die Bereiche Forschung und Entwicklung (FuE) an der Gesamtförderung in den vergangenen Jahren stark zugenommen haben, zweitens die neu aufgelegten Förderprogramme verstärkt auf kleine und mittlere Unternehmen ausgerichtet sind und drittens die Förderung zunehmend von der nationalen auf die internationale Ebene nach Brüssel verlagert wird. In der Praxis zeigt sich aber, dass KMU in der europäischen FuE-Förderung nicht gemäß ihrer gesamt¬wirtschaftlichen Bedeutung repräsentiert sind. Die Arbeit basiert auf der Hypothese, dass sich diese Unterrepräsentation auf Innovationsdefizite der betroffenen KMU zurückführen lässt und versucht Ansätze zu entwickeln, wie sich diese Informationsdefizite überwinden lassen. Zunächst werden ökonomische Argumente für und wider eine Forschungsförderung diskutiert. Die Arbeit untersucht anschließend das Innovationsverhalten von KMU anhand vorliegender empirischer Studien. Da die Arbeit von der These ausgeht, dass es sich bei den Ursachen der geringen Teilnahme von KMU an der europäischen Fdrderung um Informa-tionsschwierigkeiten handelt, werden danach Informationsmanagement und der Informations-gegenstand thematisiert. Es wird untersucht, wie sich KMU externe Informationen beschaffen und welche Informationsquellen ihnen im Zusammenhang mit der europäischen FuE-Förderung zur Verfügung stehen. Zentrales Kapitel der Arbeit ist eine eigene empirische Untersuchung, in der das Thema mit Hilfe von Experteninterviews, einer schriftlichen Umfrage und anschließenden Workshops bearbeitet wurde. Es zeigt sich, dass KMU über Informationsprobleme klagen und sich schlecht informiert fühlen. Sie verfügen aber prinzipiell über die erforderliche Infrastruktur, um sich entsprechende Informationen online zu beschaffen. Erwartungsgemäß groß ist daher auch der Einfluss der Informationsbeschaffung auf den Fördermittelerhalt: Unternehmen, die das Internet zur Informationsbeschaffung nutzen, sind regelmäßig erfolgreicher in der Beschaffung von Fördermitteln. Die These der Arbeit wird insofern gestützt. Nachdem die Erkenntnisse der empirischen Untersuchung im Rahmen von Schulungen in 14 Unternehmen umgesetzt wurden, endet die Arbeit mit Schlussfolgerungen, die auf staatlicher und auf Untemehmensebene zu ziehen sind.
Comment:
1. Gutachter: Feess 2. Gutachter: Oberweis
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Gestaltungsprinzipien von Videokonferenzsystemen für CSCW-Anwendungen.
Beier, Ines
TU Cottbus (2000)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Systematische Gestaltung und kontinuierliche Anpassung von Organisationsstrukturen bei der Anwendung betriebswirtschaftlicher Softwarebibliotheken - Organisationsgestaltung und dynamische Adaption.
Bätz, Christian
Universität Würzburg (2000)
Comment:
1. Gutachter: Thome 2. Gutachter: Winter
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Customer Focus Assessment
Bäuerle, Thomas
Universität Kaiserslautern (2000)
Abstract:
Die Themen Kundenorientierung und -zufriedenheit finden in Forschung und Unternehmenspraxis hohe Beachtung und zahlreiche Publikationen befassen sich mit entsprechenden Konzepten und Handlungsanleitungen. Allerdings liegt bisher kein Instrument zur Überprüfung einer erfolgreichen Umsetzung vor. Ausgehend von einer fundierten Analyse wissenschaftlicher Konzepte zur Kundenorientierung sowie zur Messung von Kundenzufriedenheit und -bindung entwickelt Thomas Bäuerle einen Kriterienkatalog, der wesentliche Themenbereiche beinhaltet und Unternehmen ermöglicht zu bewerten, ob sie sich tatsächlich auf einem erfolgreichen Weg befinden. Beispielhafte Kriterien sind die strategische Verankerung von Kundenorientierung, operative Umsetzung, z.B. durch Kundenbindungsmanagement, die Gestaltung erforderlicher Rahmenbedingungen sowie die Messung kundenbezogener Ergebnisse.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Marketing für betriebswirtschaftliche Standardanwendungssoftware - Bewältigung von Unsicherheit und Spezifität im Systemgeschäft
Diehl, Hans Jörg
Universität Würzburg (2000)
Abstract:
Der Einsatz einer integrierten ERP-Software (betriebswirtschaftliche Standardsoftware) in Unternehmen ist heute aus Wettbewerbssicht unabdingbar. Der Beschaffungs- und Implementierungsprozess gestaltet sich jedoch oft schwierig: Viele Unternehmen stehen vor der komplexen Aufgabe einer kompletten Reorganisation im Zuge der Softwareeinführung und empfinden daher eine hohe Unsicherheit. Die Aufgabe des Marketing eines Softwareherstellers und Systemanbieters ist es, diese Unsicherheit zu erkennen und durch geeignete Maßnahmen abzubauen. Ziel dieser Dissertation ist es, die wahrgenommene Unsicherheit des beschaffenden Unternehmens transaktionskostentheoretisch zu analysieren und darauf aufbauend verschiedene Marketingmaßnahmen abzuleiten, die in der Lage sind, die Unsicherheit des Kunden nachhaltig zu reduzieren. Mit Hilfe einer empirischen Untersuchung bei über 70 deutschen Unternehmen werden wichtige Probleme aufgezeigt und mögliche Handlungsempfehlungen für Anbieter entwickelt. Insbesondere wird auch die Rolle eines kompetenten Implementierungsdienstleisters als Systemintegrator analysiert. Das Buch wendet sich an Lehrende und Studierende der Betriebswirtschaftslehre mit dem Schwerpunkt Marketing sowie an ERP-Softwareanbieter, Dienstleister im Umfeld ERP-Software-Einführung und Entscheidungsträger im Bereich IT-Beschaffung und -Einführung.
Comment:
1. Gutachter: Meyer 2. Gutachter: Thome
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Die Rolle der Personalentwicklung in Reengineeringprojekten zur Einführung betriebswirtschaftlicher Standardanwendungssysteme aus Sicht der Wirtschaftsinformatik
Dorrhauer, Carsten
Universität Mannheim (2000)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Reverse Business Engineering - Ableitung von betriebswirtschaftlichen Modellen aus produktiven Softwarebiliotheken
Däfler-Wenzel, Heike
Universität Würzburg (2000)
Comment:
1. Gutachter: Thome
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Ein Referenzmodell für die überbetriebliche Auftragsabwicklung in textilen Lieferketten
Erzen, Kristijan
RWTH Aachen (2000)
Comment:
1. Gutachter: Eversheim 2. Gutachter: Wulfhorst
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Elektronisches Geld und Geldpolitik
Hartmann, Monika
Universität Karlsruhe (2000)
Abstract:
Elektronisches Geld stellt eine neue und umstrittene Innovationsstufe des modernen Zahlungsverkehrs dar. Über sein Wesen, sein Entwicklungspotenzial und insbesondere seine Bedeutung für die etablierte Geldordnung kursieren kontroverse Auffassungen. Monika E. Hartmann analysiert das elektronische Geldgeschäft im Kontext alternativer Zahlungskonzepte und aus geldpolitischer Sicht. Geldtheoretische Überlegungen werden dabei anhand der tatsächlichen Zahlungsverkehrsstrukturen und der geldpolitischen Gegebenheiten ausgewählter Länder überprüft. Die Analyse zeigt, dass elektronisches Geld gesamtwirtschaftlich betrachtet nur mäßige Veränderungen im heutigen Gefüge des Zahlungsverkehrs bewirken wird.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Grammatikbasierte Beschreibung von Geschäftsprozessen - Methodik für das strukturierte Verarbeiten von Modellen
Heimig, Ingo
Universität Saarbrücken (2000)
Abstract:
Aufgrund ihrer Transparenz sind Prozessmodelle zur Darstellung komplexer betriebswirtschaftlicher Zusammenhänge besser geeignet als exakte mathematische Beschreibungsformen, die in der Regel nur Teilbereiche von betriebswirtschaftlichen Problemstellungen abdecken. Ingo Heimig verbindet die gegensätzlichen Ansätze von halbformalen betriebswirtschaftlichen Beschreibungsmöglichkeiten mit exakten mathematischen Methoden, ohne dabei auf die Vorteile beider Methoden zu verzichten. Er entwickelt eine kontextfreie Grammatik als eine interne Beschreibungsmethode, die die Voraussetzungen für ein strukturiertes und systemtechnisches Verarbeiten von Prozessmodellen schafft. Möglichkeiten, die sich durch die Prozessmodellierung bieten, können besser ausgeschöpft werden, so z.B. die Wiederverwendung von Prozessen in Referenzbibliotheken im Sinne eines "Process Warehouse", die intensive Nutzung von Prozessmodellen für das Wissensmanagement und die modellgestützte Konstruktion von Geschäftsprozessen als systematischer Gestaltungsprozess im Rahmen von Reorganisationsmaßnahmen. Aus dem Inhalt: Aspekte der Unternehmensmodellierung - Einsatz von formalen Sprachen zur Beschreibung von Prozessmodellen - Voraussetzungen und Verbesserungspotenzial der modellgestützten Geschäftsprozessbeschreibung - Entwicklung einer Grammatik zur Beschreibung von Geschäftsprozessen
Comment:
1. Gutachter: Scheer
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ein Ansatz zur formalen Repräsentation und automatisierten Generierung graphischer Benutzungsoberflächen
Herda, Nils
Universität Bamberg (2000)
Abstract:
Gegenstand dieser Arbeit war die Entwicklung einer eigenständigen Methodik auf dem Gebiet der automatisierten Generierung von Benutzungsoberflächen aus Fach¬konzepten. Es wurde dazu die folgende Vorgehensweise gewählt: Der erste Teil der Arbeit behandelte die Grundlagen dieses Forschungsgebiets. So wurden zunächst die Mensch-Computer-Kommunikation aus verschiedenen Aspekten diskutiert und die Zusammenhänge mit gesetzlichen Vorschriften sowie bin¬denden Regelwerken verschiedener Normungsgremien aufgezeigt. Anschließend sind grundlegende Methodiken und Vorgehensweisen der Entwicklung von Informations¬systemen im Rahmen des Software Engineerings vorgestellt und bewertet worden. Mit den erweiterten Entwurfsprozessen des Usability Engineering konnten dann die zuvor diskutierten Themengebiete inhaltlich zusammengeführt und die methodische Grundlage für den Entwurf einer eigenständigen Methodik erarbeitet werden. Im zweiten Teil der Arbeit stand die Entwicklung des InterMediate-Ansatzes im Mittelpunkt. So wurden zunächst das Forschungsgebiet vorgestellt und existieren¬de Ansätze diskutiert. Anschließend wurden daraus Anforderungen abgeleitet, die formale Spezifikationsmethodik erarbeitet und darauf aufbauend die verschiedenen Generierungsverfahren entwickelt. So wurden zunächst Vorgehensweisen vorgestellt, um daten- und objektorientierte Schemata in formale Spezifikationen einer Benut¬zungsoberfläche zu überführen. Anschließend wurden algorithmische Verfahren ent¬wickelt, um aus dieser Zwischenebene ablauffähige Spezifikationen zu generieren, die auf etablierten wissenschaftlichen Beschreibungsmethodiken beruhen.
Comment:
1. Gutachter: Augsburger 2. Gutachter: Sinz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entwurf eines Marktplatzes für heterogene Komponenten betrieblicher Anwendungssysteme
Kaufmann, Thomas
Universität Erlangen-Nürnberg (2000)
Abstract:
Das hier aufgezeigte Szenario eines Komponentenmarkts beruht auf folgenden Annahmen: 1. Es steht ein feingranulares Angebot an betriebswirtschaftlichen Software-Bausteinen zur Verfügung, die von jeweiligen Funktionsspezialisten erstellt und in einem Repository angeboten werden. Schon heute findet man entsprechende Komponenten, die ihre Hersteller jedoch weder zentral vermarkten noch explizit für den Einsatz in heterogenen Umgebungen konzipieren. 2. Man einigt sich sowohl auf syntaktische wie auch auf betriebswirtschaftlich-semantische, nachrichtenorientierte Standards zum Datenaustausch. Im vorgestellten Beispiel übernimmt die OAGIS diese Vermittlerrolle. Dies konnte anhand einiger Experimente vorgestellt werden. Viele Entwicklungen im Bereich der Middleware oder Enterprise Application Integration deuten in diese Richtung. 3. Die Funktionalität der Bausteine wird in einer vom Repository-Betreiber gepflegten, einheitlichen Sprache beschrieben. Das ICF-System bietet dazu eine Möglichkeit. In einer gemeinsamen Beschreibungssprache liegt der kritischste Punkt der Annahmen, beruht doch deren Güte auf einer Zusammenarbeit der in Konkurrenz stehenden Software-Hersteller bei der Definition. Auch kann sich erst in der Praxis erweisen, ob sich die für eine automatisierte Vorauswahl von Bausteinkombinationen notwendigen Daten in Facetten mit kontrolliertem Vokabular fassen lassen. Ebenso ist fraglich, ob man die Feinheiten in der Funktionalität einer betrieblichen Anwendung so formulieren kann, dass sie eine Ja-Nein- Bestimmung zulassen. Ein weiteres Hemmnis auf dem Weg zum hier Geschilderten stellen die hohen Anforderungen an die Integratoren dar, die sich sowohl mit den Unternehmensanforderungen, Gegebenheiten in Branchen etc. auskennen müssen als auch mit den jeweiligen Modulen. Dies kann nur gelingen, wenn die Integration durch Standards und genaue Vorgehensbeschreibungen von den Herstellern unterstützt wird. Sind diese Voraussetzungen erfüllt, so lassen sich Software-Auswahl und -Einführung in vielfältiger Weise unterstützen: Kunden erhalten potenziell besser angepasste Lösungen, wenn sie diesen Marktplatz nutzen. Software-Herstellern hilft er, Angebotslücken aufzuspüren und gezielt Komponenten herzustellen, ohne eine Vielzahl von Annahmen über die künftigen Käufer treffen zu müssen. In einem solchen Rahmen lassen sich Antworten auf zwei derzeit kontrovers diskutierte Fragen geben: 1. Branchen- versus Betriebstypen-Orientierung Beide Formen haben ihre spezifischen Vorteile. Kunden erwarten, dass ihre Ansprechpartner mit den Gegebenheiten (Bezeichnungen, Strukturen etc.) der Branche vertraut sind. Daher ist die Integratorenrolle im Marktmodell branchenspezifisch angelegt. Für die Herstellung von Software erweist sich die Einteilung in Branchen als zu ungenau. Die Komponentenhersteller sollten je nach Größe daher Funktions- bzw. Betriebstypspezialisten sein. 2. Komponenten versus Frameworks Auch diese Frage lässt sich im skizzierten Markt mit einem „Sowohl als auch“ beantworten. Hersteller nutzen die Framework-Technik, um für einen abgeschlossenen Funktionsumfang leicht eine Reihe von Varianten erzeugen zu können. Diese Varianten sind notwendig, damit auf die unterschiedlichen Anforderungen von Betrieben flexibel reagiert werden kann. Auf der Seite der Integratoren verhalten sich die aus Frameworks gewonnenen Anwendungen wie Komponenten. Der letzte Schritt zur Herstellung eines integrierten Anwendungssystems besteht daher aus der Montage der Software-Bausteine auf der Basis eines Software- Bussystems. Letztlich kann sich ein solcher Komponentenmarkt nur entwickeln, wenn es mutige Unternehmen gibt, die sich auf die Pionierarbeiten, wie die Terminologiebildung, die Erstellung der Werkzeuge und die Bildung von Partnerschaften zwischen Repository-Betreiber, Zulieferern und Integratoren, einlassen. Im Rahmen eines Kooperationsprojekts des Bereichs Wirtschaftsinformatik I mit einem großen deutschen Software-Haus wird derzeit versucht, der Vision eines reifen Software- Markts ein Stück näher zu kommen.
Comment:
Prof. Dr. Dr. h.c. mult. Peter Mertens, Prof. Dr. Freimut Bodendorf
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Wissensmanagement: Ziele und Gestaltungsempfehlungen - Entwicklung einer Benchmarking-unterstützten Vorgehensweise zur Bestimmung individueller Gestaltungsempfehlungen auf Basis einer strukturierten Darstellung konkreter Wissensmanagement-Ziele
Kehlenbeck, Christian
Universität Regensburg (2000)
Comment:
1. Gutachter: Bartmann 2. Gutachter: Lehner
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Banken als lernfähige Organisationen
Krautwurst, Oliver
Universität München (2000)
Abstract:
Angesichts tiefgreifender Veränderungen im Bankgewerbe müssen sich Kreditinstitute den Anforderungen eines permanenten Wandels stellen. Dies erfordert auch ein neues Verständnis von bankbetrieblichem Personalentwicklungs-Management. Oliver Krautwurst entwickelt aufbauend auf einer kritischen Analyse der Konzepte des organisatorischen Lernens und einer explorativen Untersuchung im Bankgewerbe ein integratives Personalentwicklungskonzept. Er zeigt sowohl die bankbetrieblichen Rahmenbedingungen und Einflussfaktoren als auch die notwendigen Voraussetzungen für den Erfolg eines solchen Konzeptes auf. Abschließend stellt der Autor ein Personalentwicklungs-Instrumentarium vor, welches das organisatorische Lernen sowohl in als auch von Banken adäquat fördert.
Comment:
1. Gutachter: Meyer zu Selhausen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Führungsunterstützungssysteme: ein kommunikationsorientierter Ansatz - Konzept und prototypischer Realisierung.
Kruppa, Stephan
Universität Tübingen (2000)
Comment:
1. Gutachter: Jahnke
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Softwareprozessverbesserungsprojekte
Kölmel, Bernhard
Universität Karlsruhe (2000)
Comment:
1. Gutachter: Stucky
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Der prozessorientierte Ansatz zur Verwaltungsmodernisierung des öffentlichen Sektors in Deutschland am Beispiel einer niedersächsischen Kommunalverwaltung.
Küchler, Sven
Universität Osnabrück (2000)
Abstract:
Unter dem Begriff der öffentlichen Verwaltung (kurz: Verwaltung) versteht man Körperschaften des öffentlichen Rechts, die weder Gesetzgebung (Legislative) noch Rechtsprechung (Jurisdiktion) ausüben. Im Rahmen des "Prinzips der Dreistufigkeit" wirken auf der lokalen Ebene der mittelbaren Verwaltung in Deutschland die Kommunalverwaltungen (kurz: Kommunen), zu denen neben allen örtlichen Gemeinschaften auch Städte, nicht jedoch Landkreise, zählen. Kommunen besitzen das Recht der Selbstverwaltung (Grundgesetz 1995, Art.28 Abs.2/3, Art.93 Abs.1 Nr.4b), deren rechtliche Ausgestaltung durch die Verfassung und die Gemeindeordnung der jeweiligen Länder erfolgt. Die kommunale Selbstverwaltung legt fest, daß sämtliche öffentlichen Angelegenheiten im Rahmen des örtlichen Wirkungskreises eigenverantwortlich (z.B. Rechtsetzungs-, Steuer-, Organisationsund Personalhoheit) vollzogen werden können. Die derzeitige Kritik läuft auf die Wirksamkeit, die Problemlösungskompetenz und die Akzeptanz der öffentlichen Verwaltung hinaus. Auf der einen Seite sind von den Staatsbehörden im Rahmen der Deregulierung ("Schlanker Staat") immer mehr Leistungen (z.B. höhere Fallzahlen bei der Abgabe von Stellungnahmen; Sozialhilfe) auf die Kommunen verlagert worden. Das erweiterte Aufgabenprofil führte zu einem zunehmenden Regelungsbedarf (Anstieg der Gesetze und Rechtsnormen sowie der Kontrollorgane), der die Freiheit der kommunalen Aufgabenerfüllung weiter einschränkte. Auf der anderen Seite ist die Finanzierung der Aufgaben infolge der strukturellen Probleme oft nicht gewährleistet. Die Konsolidierung des Haushalts wird vor allem in Form von Einsparungen im Personal- und Investitionsbereich, mittels kommunaler Vermögensveräußerung oder Neuverschuldung sowie durch die Selbstbeschränkung auf nur noch politisch absolut notwendige Selbstverwaltungsaufgaben erreicht.
Comment:
1. Gutachter: Stahlknecht 2. Gutachter: Witte
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Organisation von Forschung und Entwicklung in Japan - Eine empirische Untersuchung am Beispiel von Unternehmen des japanischen Werkzeugmaschinenbaus
Langerwisch, Peik
Universität Berlin (2000)
Comment:
1. Gutachter: Schreyögg 2. Gutachter: Sydow
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Interaktive Geschäftsprozeßmodellierung in einer Virtual-Reality-gestützten Unternehmensvisualisierung
Leinenbach, Stefan
Universität Saarbrücken (2000)
Abstract:
Ständige Veränderungen im Umfeld eines Unternehmens erfordern die Anpassung, oft auch die völlige Neugestaltung der bestehenden Organisationsstruktur. In diesem Zusammenhang ist eine modellhafte Abbildung der betrachteten Abläufe erforderlich, um ein gemeinsames Prozessverständnis bei den Mitarbeitern zu erzeugen. Auf der Basis leicht erlernbarer Beschreibungssprachen zur interaktiven Prozesserhebung und intuitiven Prozessvisualisierung entwickelt Stefan Leinenbach eine Modellierungsmethode, die die an den betrieblichen Abläufen Beteiligten aus der passiven Rolle der Informationslieferanten in die aktive Rolle von Prozessmodellierern und -bewertern versetzt.
Comment:
1. Gutachter: Scheer
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Schnittstellenorientierung und Middleware - basierte Busarchitekturen als Hilfsmittel zur Integration heterogener betrieblicher Anwendungssysteme
Liessmann, Harald
Universität Erlangen-Nürnberg (2000)
Comment:
1. Gutachter: Mertens
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Digital Commerce. Electronic Commerce mit digitalen Produkten
Luxem, Redmer
Universität Münster (2000)
Abstract:
In vielen Büchern zum Thema eCommerce wird der elektronische Handel mit digitalen Produkten (Digital Commerce) nur am Rande behandelt. Dieses Buch stellt diese besonders "reine" Form des eCommerce in den Mittelpunkt und beleuchtet das Thema von allen Seiten. Es ist sehr verständlich geschrieben und als Referenzmodell für die Implementierung von Digital-Commerce-Systemen ausserordentlich hilfreich. Zudem enthält es Unmengen an Verweisen auf die einschlägige Literatur zu diesem Thema. Als Ergänzung empfehle ich das Buch "Differenzierung und elektronischer Vertrieb digitaler Informationsgüter" von Roman Brandtweiner, das noch ein wenig genauer auf spezielle Geschäftsmodelle für den Digital Commerce eingeht.
Comment:
1. Gutachter: Becker
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konzeption und Entwicklung eines computergestützten, betrieblichen Umweltinformationssystems in einer relationalen Datenbank.
Löchelt, Heiko
Universität Heidelberg (2000)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Integration externer Daten in Planungs- und Kontrollsysteme - Ein Redaktions-Leitstand für Informationen aus dem Internet
Meier, Marco
Universität Erlangen-Nürnberg (2000)
Comment:
1. Gutachter: Mertens 2. Gutachter: Männel
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Kundenindividuelle Massenproduktion (Mass Customization) als wettbewerbsstrategisches Modell industrieller Wertschöpfung in der Informationsgesellschaft
Piller, Thomas
Universität Würzburg (2000)
Abstract:
Das neue Buch von Frank Piller ordnet die Mass Customization als innovatives Wertschöpfungsmodell im E-Business ein, denn der zentrale Erfolgsfaktor der Mass Customization ist die effiziente Abwicklung der Informationsflüsse zwischen Anbieter und Nachfrager. Neben der wettbewerbsstrategischen Fundierung des Konzeptes beschäftigt sich der Hauptteil des Buchs mit der konkreten Umsetzung der Mass Customization vor den Hintergründen der Potentiale neuer Informations- und Internettechnologien. Der Anhang des Buchs dokumentiert und bewertet über 100 Pionierunternehmen der Mass Customization.
Comment:
1. Gutachter: Koller 2. Gutachter: Thome
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Gestaltungspotientiale eines MSS-gestüzten Hochschul-Managements am Beispiel der Universität Osnabrück.
Postert, Stephan
Universität Osnabrück (2000)
Abstract:
Im wesentlichen initiiert durch staatliche Haushaltsengpässe wächst in den letzten Jahren der Druck auf Hochschulen zu gleichwohl in vielerlei Hinsicht notwendigen Veränderungen in Ver-fas-sung, Organisation, Ressourcen- und Prozess-Management. Die durchaus berechtigten For-de-run-gen der Politik, z. B. nach Wettbewerb und Leistungsorientierung, lassen jedoch die hierfür notwendigen, unterstützenden Rahmenbedingungen vermissen, im Gegenteil wird das Korsett überkommener, untauglicher Steuerungs- und Kontrollinstrumente in Form von Verordnungen und Erlassen für immer noch "nachgeordnete Behörden" eher enger geschnürt. Ohne die Schaffung einer technisch-organisatorischen Infrastruktur, incl. der Entwickung einer neuen Führungskultur unter besonderer Berücksichtigung der hochschulspezifischen Produkt- und Dienstleistungspalette müssen die Reformbestrebungen als aussichtslos angesehen werden. Dies zeigte sich auch früh in einem vom Stifterverband für die Deutsche Wissenschaft im Rahmen des Programms Reformuniversitäten von 1998-2000 geförderten Forschungs- und Entwicklungsprojekts an der Universität Osnabrück zur "Entwicklung eines Management-Informations-Systems zur Verbesserung der Leitungs- und Entscheidungsstrukturen", in dessen Rahmen die vorliegende Arbeit entstand.
Comment:
1. Gutachter: Rieger 2. Gutachter: Wosnitza
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ein Referenzmodell zur Planung und Steuerung der Abläufe in Seehafen-Containerterminals
Pumpe, Dieter
TU Berlin (2000)
Comment:
1. Gutachter: Pape 2. Gutachter: Suhl
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Das Policy Negatiation Konzept - Heuritische kollektive Entscheidung in unternehmensübergreifenden Kooperationen mit hybrider Leitungsstruktur
Reiter, Joachim
Universität Trier (2000)
Comment:
1. Gutachter: Czap 2. Gutachter: Sturm
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Electronic Contracting im elektronischen Handel - Das Beispiel der amerikanischen Versicherungsbranche.
Runge, Alexander
Universität St. Gallen (2000)
Abstract:
Im elektronischen Handel sind seit Jahren Angebote in elektronischen Produktkatalogen in rasch wachsender Zahl verfügbar. Auch das elektronische Bezahlen ist inzwischen auf recht sichere Weise möglich. Jedoch bleibt als eigentliche und noch fehlende Verbindung zwischen elektronischen Produktkatalogen und Abwicklungssystemen, wie elektronischen Zahlungssystemen, der elektronische Kontrakt. Das Thema ist von großer Relevanz und erstreckt sich über mehrere Disziplinen. Nicht nur aufgrund der erwähnten und zu schließenden Lücke bekommen elektronische Kontrakte eine große Bedeutung, sondern auch aufgrund der momentanen rechtlichen Unsicherheit im Internet. Elektronische Kontrakte müssen u. a. rechtlich verbindlich sein, nicht nur, um bei Anwendern Vertrauenswürdigkeit in die Handhabung elektronischer Transaktionen zu erzeugen. Dies bedeutet, dass neuere Technologien zur Umsetzung elektronischer Kontrakte und sicherheitstechnischer Grundlagen rechtliche Anerkennung erlangen müssen.
Comment:
1. Gutachter: Schmid 2. Gutachter: Bauknecht
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ein System zur individualisierten Informationsvermittlung - dargestellt am Beispiel eines multimedialen Branchenkatalogs der Technischen Keramik
Rössel, Marc
Universität Erlangen-Nürnberg (2000)
Abstract:
Die außerordentlichen Möglichkeiten, die Multimedia bzw. Hypermedia sowie die Datenbanktechnologie in Verbindung mit neueren Konzepten der Informationsdarstellung und -erschließung bieten, waren Gegenstand der vorangegangenen Kapitel. Es wurde hervorgehoben, dass die Benutzermodellierung „nur“ ein wichtiger Baustein für individualisierte Informationsvermittlung ist und nicht selbst schon das Forschungsziel darstellte. Deshalb lag der Schwerpunkt auf der Entwicklung adaptiver und adaptierbarer Systemkomponenten und nicht im Bereich einer „exakten“ Benutzertaxierung. Die konsequente Umsetzung der Modellinhalte konnte wesentliche Verbesserungen der Systemperformanz und damit der Akzeptanz erreichen. Vor diesem Hintergrund hat die vorliegende Arbeit bewiesen, dass es (unter Beachtung der kritischen Äußerungen in Kapitel 5.1 dennoch) möglich ist, ein universelles und flexibles Katalogsystem für ein sehr heterogenes Publikum mit ausgesprochen vielfältigen Informationsbedarfen zu entwickeln und in der Praxis erfolgreich einzusetzen. Es wird ausdrücklich betont, dass sich AMPreS grundsätzlich auch zur Präsentation anderer Domänen als der Technischen Keramik eignet. Beispielsweise ließen sich Kataloge für die Kunststoff oder Glas verarbeitende Industrie oder für Metallbetriebe erstellen, die mindestens vergleichbar hohe Anforderungen an die Inhaltspräsentation und -erschließung stellen. Summa summarum existieren für weitere Forschungsarbeiten einerseits reizvolle, noch ungelöste Probleme (siehe u. a. Kapitel 5.1). Andererseits gibt es schon jetzt genügend Anwendungsfelder für die hier dokumentierten Erkenntnisse respektive Systemelemente
Comment:
Prof. Dr. P. Mertens, Prof. Dr. P. Greil
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entwicklungsmethoden und Architekturkonzepte für Web-Applikationen unter besonderer Berücksichtigung von Systemen zur Erstellung und Administration Webbasierter Lernumgebungen
Schellhase, Jörg
Universität Kassel (2000)
Abstract:
In der Dissertation werden Entwicklungsmethoden und Architekturen für Web-Applikationen sowie Systeme zur Bereitstellung und Pflege von Web-Applikationen dargestellt und analysiert. Des Weiteren wird für eine spezielle Klasse von Web-Applikationen, sogenannte Web-basierte Lernumgebungen, eine eigene Architektur entwickelt und dargestellt. Die konzipierte Web-basierte Lernumgebung berücksichtigt zahlreiche Konzepte der Hypertext-Theorie, die bislang vielfach in Lernumgebungen unberücksichtigt blieben. Ferner wird ein effizienter Produktionsprozess zur Realisierung der Web-basierten Lernumgebung konzipiert und realisiert. Ein wesentlicher Bestandteil des dargestellten Produktionsprozesses ist ein für diesen Zweck vom Autor entwickeltes Tool, der sogenannte Virtual Learning Environment Generator (VLEG). Mit dem VLEG können die zuvor beschriebenen Web-basierten Lernumgebungen erstellt, gepflegt und gemanagt werden. In Kapitel 2 der Dissertation werden zunächst allgemeine, für das Verständnis der Dissertation notwendige, Grundlagen aus dem Bereich der Hypertext-Theorie sowie technologische Grundlagen des WWW dargestellt. Kapitel 3 führt in das Gebiet des Web-Engineerings ein und stellt eine Reihe von Entwicklungs- und Modellierungsmethoden einander gegenüber. In Kapitel 4 werden verschiedene Kategorien von Web-Applikationen sowie von Systemen zur Bereitstellung und Pflege von Web-Applikationen theoretisch erörtert und anhand der Beschreibung und Analyse konkreter Web-Applikations-Architekturen veranschaulicht. Des Weiteren wird das zunehmend an Bedeutung gewinnende Gebiet des Content Management eingehend behandelt. Content Management befasst sich mit der Planung, Verwaltung, Steuerung und Koordination aller Aktivitäten, die auf den Inhalt (Content) informations- und medientechnisch vorgehaltener Informationen in Unternehmen abstellen. Aufbauend auf den zuvor erarbeiteten Erkenntnissen wird sodann in Kapitel 5 eine eigene Architektur für eine spezielle Klasse von Web-Applikationen sowie ein spezielles Tool zur Realisierung derartiger Web-Applikationen dargestellt. Die dargestellte Architektur, der mit dem Tool erstellbaren Web-Applikationen, wird anhand von Evaluationsergebnissen erörtert und bewertet.
Comment:
1. Gutachter: Winand (?) 2. Gutachter: Wloka (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Betriebswirtschaftliche Vorkonfiguration von Softwarebibliotheken - Spezifische Ableitung von Referenzsystemen und Templates für Anwendersegmente
Schipp, Oliver
Universität Würzburg (2000)
Comment:
1. Gutachter: Thome 2. Gutachter: Lenz
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Die Fachbeschreibung : ein neues Konzept für eine ""intelligente"" Anwendungsentwicklung"
Schirp, Gunnar
Universität Köln (2000)
Abstract:
Der fehlende Überblick zu den bestehenden Anwendungssystemen ist in vielen Unternehmen ein ungelöstes Problem. Folgen dieser Situation sind u.a. Schnittstellenprobleme, fehlende Wiederverwendung und ein mangelhaftes Change Management. Im Bereich des Datenmanagements wurde lange versucht, durch sogenannte Unternehmens¬datenmodelle (UDM) den Überblick wiederherzustellen. Die Implementierung des UDM hat sich in der Praxis aber als zu langwierig herausgestellt und in einer von Dynamik geprägten Unternehmenswirklichkeit kaum Akzeptanz gefunden. Im vorliegenden Buch wird mit der Fachbeschreibung ein pragmatischer Ansatz vorgestellt, um schnell zu einem leicht verständlichen und unternehmensweit standardisierten Überblick zu gelangen. Anwendungsentwicklung wird dabei als „intelligenter" Prozess verstanden, in dem vor allem Lern- und Kommunikationsprozesse implementiert werden müssen. Die Fachbeschreibung ist hierfür ein unterstützendes Instrument. Die Fachbeschreibung liefert einen Überblick zu einem Projekt, Prozess oder DV-System. Mit einer Fachbeschreibung werden Mitarbeiter in DV-Projekten in die Lage versetzt, ein grundlegendes Verständnis für ein DV-System zu erhalten. Damit steht das notwendige Grundwissen zu einem Projekt bereit und ermöglicht dadurch die Kommunikation mit Projekt-Mitarbeitern und Projekt-Externen. Der Überblick in der Organisation wird damit verbessert. Im Rahmen der vorliegenden Arbeit werden sehr konkrete Vorschläge und Beispiele für Fachbeschreibungen dargestellt. Es wird die zentrale Frage beantwortet, welche formalen und semi-formalen Beschreibungsmittel (z.B. aus der Daten- und Geschäftsprozessmodellierung) in einer Fachbeschreibung eingesetzt werden können. Das Konzept ist dabei sowohl für operative als auch für analytische Systeme (z.B. im Rahmen einer Data Warehouse-Architektur) einsetzbar. Das vorliegende Buch liefert mit der Fachbeschreibung ein theoretisch fundiertes aber zugleich praxiserprobtes Konzept. Neben Wissenschaftlern spricht es daher vor allem Praktiker an, die sich mit Daten- und Wissensmanagement befassen sowie Führungskräfte in der Anwendungsentwicklung, die nach Verbesserungspotentialen im Projektmanagement suchen.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Sanierung und Migration von Softwarealtsystemen
Schmidle, Ulrich
Universität Karlsruhe (2000)
Abstract:
In vielen Unternehmen sammeln sich in zunehmendem Maße alte Softwaresysteme, deren Größe und Komplexität im Laufe der Zeit immer mehr angestiegen sind. Häufig entsprechen diese Systeme nicht mehr den Anforderungen, die im Allgemeinen an ein modernes Softwaresystem gestellt werden, und sie unterstützen die gegenwärtigen Nutzeranforderungen nur noch in einem unzureichenden Maße. Ziel des Projekts ist es, Methoden für die Sanierung und Modernisierung von Softwarealtsystemen sowie Vorgehensmodelle zu deren Ablösung bereitzustellen.
Comment:
1. Gutachter: Stucky
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Architektur, Entwicklungstendenzen und Potenzialbewertung des Data Warehousing im Dienstleistungsbereich
Schwarz, Stefan
Universität St. Gallen (2000)
Comment:
1. Gutachter: Winter
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Computergestützte Lernumgebungen in der Betriebswirtschaftslehre - Analyse und Konstruktion aus Sicht des selbstgesteuerten Lernens.
Schäfer, Roland
Universität Wiesbaden (2000)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Workflow Management - ein ereignisbasierter Ansatz
Schätzle, Roland
Universität Karlsruhe (2000)
Comment:
1. Gutachter: Stucky
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Performance analysis methods for heuristic search optimization with an application to cooperative agent algorithms
Sondergeld, Lutz
TU Braunschweig (2000)
Comment:
1. Gutachter: Voß 2. Gutachter: Woodruff
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Ansätze zur Risikosteuerung einer Kreditversicherung unter Berücksichtigung von Unternehmensverflechtungen
Stegmann und Stein Von, Ernst
Universität Göttingen (2000)
Comment:
1. Gutachter: Schumann
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Projektnavigator zur Einführung einer Softwarebibliothek - Marktüberblick, Konzeption und Entwicklung am Beispiel von R/3
Streller, Stephan
Universität Würzburg (2000)
Comment:
1. Gutachter: Thome 2. Gutachter: Meyer
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Integration von Simulationsmethoden und hochintegrierter betriebswirtschaftlicher PPS-Standartsoftware im Rahmen eines ganzheitlichen Entwicklungsansatzes
Stummeyer, Christian
Universität Göttingen (2000)
Comment:
1. Gutachter: Biethan (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Möglichkeiten und Grenzen der Integration von computergestützten Konstruktions- und Verkaufssystemen
Stürken, Momme Rasmus
Universität Erlangen-Nürnberg (2000)
Comment:
1. Gutachter: Mertens 2. Gutachter: Voigt
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Standartsoftware versus Individualsoftware?
Wallmeyer, Heike
Universität Dortmund (2000)
Comment:
1. Gutachter: Schirmeister 2. Gutachter: Degen
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Gestaltungsansätze zur IV - Integration von elektronischen und konventionellen Vertriebsstrukturen bei Kreditinstituten
Wegert, Stefan
Universität Göttingen (2000)
Comment:
1. Gutachter: Schumann
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Standardisierung und Individualisierung wissensintensiver Dienstleistungen in Unternehmensnetzwerken
Well, Bennetvan
Universität Berlin (2000)
Abstract:
Die Erstellung von Dienstleistungen, und insbesondere die von wissensintensiven Dienstleistungen, bedarf der Mitwirkung des Kunden. Dies stellt wissensintensive Dienstleister, wie z.B. Wirtschaftsprüfer oder Finanzdienstleister, vor ein zentrales ökonomisches Problem: Ihr Erfolg beruht zugleich auf einer Standardisierung und einer Individualisierung. Unternehmungsnetzwerke, die heute vielfach als ideale Organisationsform zur Bewältigung auch des Spannungsverhältnisses von Standardisierung und Individualisierung erscheinen, leisten nicht nur einen Beitrag zur Bewältigung dieses Managementproblems, sondern stellen vor allem neue und zusätzliche Anforderungen. Auf Basis einer kritischen Auseinandersetzung mit der betriebswirtschaftlichen, organisations- und berufssoziologischen Literatur zu Dienstleistungen wird ein Untersuchungsrahmen entwickelt, der die Strukturationstheorie von Anthony Giddens für die empirische Analyse der Bewältigung des Spannungsverhältnisses in wissensintensiven Unternehmungsnetzwerken fruchtbar macht. Kern der Arbeit sind zwei empirsche Fallbeispiele. Anhand eines netzwerkförmig organisierten Finanzdienstleisters und eines Netzwerks mittelständischer Wirtschaftsprüfungsgesellschaften wird detailliert nachgewiesen, wie die Bewältigung des Spannungsverhältnisses von Standardisierung und Individualisierung gegenüber Kunden und die Organisation wissensintensiver Unternehmungsnetzwerke wechselseitig voneinander abhängen.
Comment:
1. Gutachter: Sydow 2. Gutachter: Kleinaltenkamp
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Intelligente Analyse multidimensionaler Daten in einer visuellen Programmierumgebung und deren Anwendung in der Krebsepidemiologie
Wietek, Frank
Universität Oldenburg (2000)
Abstract:
Die Analyse multidimensionaler Daten wird aktuell unter Schlagworten wie OLAP oder Data Warehousing vor allem im Hinblick auf mächtige, intuitiv nutzbare und effizient realisierte Analysefunktionen diskutiert. Typische Datenanalysen bestehen aus langen, aufeinander aufbauenden und verzweigten Sequenzen einzelner Analyseschritte. Die Verwaltung derartiger Analyseprozesse an sich wird in existierenden Analysewerkzeugen meist nur rudimentär betrachtet. Diese Dissertation schlägt eine datenflußbasierte Programmierumgebung (VIOLA) als einen Ansatz zur Behandlung dieses Aspekts vor. Basierend auf einem multidimensionalen Datenmodell (MADEIRA) zur exakten semantischen Daten- und Operationsbeschreibung werden Analysesitzungen durch ihre graphbasierte Repräsentation nachvollziehbar und manipulierbar gemacht. Am Beispiel der Krebsepidemiologie wird gezeigt, wie auf dieser Grundlage in enger Kooperation zwischen Analysesystem und Anwender Datenanalysen "intelligenter" durchgeführt werden können. Analysis of multidimensional data is currently being discussed in terms like OLAP or data warehousing, mainly concentrating on powerful operations that can be used intuitively and implemented efficiently. Typical analysis sessions comprise long and branching sequences of exploratory analysis steps which base upon each other. Management of this analysis process as a whole is scarcely supported by existing tools for data analysis. This thesis proposes a dataflow-based visual programming environment (VIOLA) as an approach to deal with this problem. Based on a data model (MADEIRA), which provides exact semantic descriptions of data and analysis operations, a graph-based view facilitates understanding and manipulation of analysis sessions. Epidemiological studies in cancer research serve as a leading example to show how data analyses can be made more "intelligent" by helping computer system and human user cooperate more closely by means of VIOLA.
Comment:
1. Gutachter: Appelrath
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Referenz-Metaschema für visuelle Modellierungsprachen
Winter, Andreas
Universität Koblenz-Landau (2000)
Abstract:
Die Modellierung von Organisationen und Softwaresystemen erfolgt heute multiperspektivisch aus unterschiedlichen Darstellungssichten. Hierzu wird sowohl in der Organisationstechnik als auch in der Softwaretechnik eine große Vielfalt unterschiedlicher visueller Sprachen verwendet. Diese Arbeit integriert diese Beschreibungsmittel auf konzeptioneller Ebene und identifiziert die Querbezüge der Darstellungen unterschiedlicher Sichten. Zur Strukturierung des weiten Spektrums unterschiedlicher Modellierungssprachen wird ausgehend von den zentralen Modellierungssichten ein Klassifikationsschema entwickelt, durch das die verschiedenen Beschreibungsmittel auf zehn grundlegende Beschreibungsparadigmen zurückgeführt werden können. Die durch Sprachen dieser Paradigmen modellierten Konzepte und deren Beziehungen werden durch Referenz-Metaschemata formalisiert. Diese Referenz-Metaschemata sind einerseits so allgemein gehalten, daß die Ableitung spezialisierter Metaschemata konkreter Modellierungsmittel leicht möglich ist. Andererseits sind sie auch so konkret, daß diese Spezialisierungen nur geringfügige Anpassungen der Referenz-Metaschemata erfordern. Das Referenz-Metaschema für visuelle Modellierungssprachen faßt diese Referenz-Metaschemata der Beschreibungsmittel für Organisationen und Softwaresysteme in einem integrierten Referenz-Metaschema zusammen. Das Referenz-Metaschema für visuelle Modellierungssprachen bietet einen umfassenden Überblick über die heute zur Modellierung von Organisationen und Softwaresystemen verwendeten Beschreibungsmittel. Unabhängig von konkreten Notationen werden diese Sprachen entlang ihrer Modellierungskonzepte dargestellt und Querbezüge zwischen den verschiedenen Darstellungsmitteln der unterschiedlichen Sichten und Paradigmen herausgestellt. Anwendung findet dieses Referenz-Metaschema neben der Festlegung der Modellierungskonzepte und deren Beziehungen u.a. auch als Modellierungsmittel zur Entwicklung spezialisierter Metaschemata konkreter, multiperspektivischer Modellierungssprachen, und es kann als Vergleichsmaßstab zur Einordnung dieser Sprachen herangezogen werden. Für die Entwicklung von Modellierungswerkzeugen definiert das Referenz-Metaschema bzw. die hieraus abgeleiteten Spezialisierungen Repositorystrukturen zur internen Verwaltung von Modelldaten und spezifiziert die Konsistenz der Teilmodelle unterschiedlicher Beschreibungsmittel zueinander.
Comment:
1. Gutachter: Ebert 2. Gutachter: Lehner
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Informations- und Planungssystem für Lehrende am kaufmännisch ausgerichteten Berufskolleg.
Wolf, Oliver
Universität Bochum (2000)
Abstract:
Kaufmännisch ausgerichtete Berufskollegs vollziehen aktuell starke Veränderungen. Sowohl die schulische Informationswirtschaft als auch organisationale Aspekte sind von diesen Veränderungen betroffen. Die vorherrschende Sichtweise im Bereich schulischer Informationssysteme ist weniger stark auf Lehrende gerichtet. Deren fehlende Unterstützung bei den wachsenden administrativen und pädagogischen Anforderungen soll aufgegriffen und ein Beitrag zur konzeptionel...
Comment:
1. Gutachter: Sinz (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
E-Consulting - Eintwicklung eines Rahmenkonzeptes
Wurdack, Alexander
Universität Mannheim (2000)
Comment:
1. Gutachter: Niedereichholz 2. Gutachter: Steffens
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Globale Teams - Ein Ansatz zur Formulierung von Gestaltungsvorschlägen für verteilte, teamorientierte Organisationsformen
Zerbe, Stefan
Universität Hohenheim (2000)
Abstract:
Flexibilität und Internationalität der Geschäftstätigkeit zählen zu den Kernanforderungen im modernen Wirtschaftsleben. Als Folge entstehen globale Teams, in denen die Kooperationspartner über Standort- und Zeitzonengrenzen hinweg zusammenarbeiten. Stefan Zerbe zeigt anhand von Fallstudien globaler Teams, wie durch den Einsatz von IT und flankierende organisatorische Maßnahmen die verteilte Zusammenarbeit organisiert werden kann. Vor dem Hintergrund eines organisationstheoretischen Bezugsrahmens analysiert der Autor die Arbeit globaler Teams sowohl aus ökonomischer als auch aus soziopolitischer Perspektive und leitet daraus organisatorische und technische Gestaltungsvorschläge ab.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Hierarchische Koordination im Supply Chain Management
Zimmer, Kirstin
Universität Mannheim (2000)
Comment:
1. Gutachter: Schneeweis 2. Gutachter: Albrecht
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Konzeption eines Vertriebscontrolling-Informationssystems für Unternehmen der liberalisierten Elektrizitätswirtschaft
Althans, Mark
Universität Göttingen (2001)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Informationsmanagement aus Sicht der Betriebswirtschaftslehre: theoretische Ansätze und das Beispiel Mobile Business
Beier, Dirk
Universität Bochum (2001)
Abstract:
Die umfangreiche Dissertationsschrift des Autors betrachtet das in der Wissenschaftsdomäne der Wirtschaftsinformatik stark etablierte Gebiet des Informationsmanagements aus unterschiedlichen Blickpunkten der Betriebswirtschaftslehre. Das Informationsmanagement wird hier also als spezielles Untersuchungsfeld der Betriebswirtschaftslehre betrachtet und im Sinne einer grundlegenden theoretischen Fundierung, bei der in der Vergangenheit ein Defizit ausgemacht wurde, beleuchtet. Nach der Einführung in das Thema wird im zweiten Hauptkapitel das Informationsmanagement als Gegenstand von betriebswirtschaftlichen Untersuchungen eingeführt, bevor in den folgenden drei Hauptkapiteln unterschiedliche Wissenschaftsprogramme der Betriebswirtschaftslehre betrachtet werden. Im einzelnen werden hier die Erkenntnispotenziale des Faktortheoretischen Ansatzes, des Systemorientierten Ansatzes und der Neuen Institutionenökonomie für das Informationsmanagement intensiv beleuchtet und vergleichend dargestellt. Aufbauend auf diesen theorielastigen Überlegungen wird im sechsten Hauptkapitel versucht, eine Synthese aus den drei genannten Ansätzen zu erstellen, die Argumentationsstränge zu verknüpfen und die Theorieansätze am Beispiel des Mobile-Business zusammen zu führen, bevor eine Schlussbetrachtung die Arbeit abschließt. Die Betrachtung der unterschiedlichen Theorieansätze vor dem Anwendungshintergrund des Mobile-Business umfasst an dieser Stelle neben definitorischen Abgrenzungen und einführenden technischen Hintergründen eine Darstellung von Berührungspunkten der im Rahmen des Mobile-Business möglichen Leistungsangebote und des Informationsmanagements, sowie Betrachtungen unter anderem zur Effektivität und Effizienz von technikunterstützter Informationsverarbeitung im Bereich des Mobile-Business. Das Buch erscheint vor dem Hintergrund seiner inhaltlichen Schnittstellenfunktion sowohl für Interessenten des Informationsmanagements bedeutungsvoll, die sich intensiv mit den theoretischen Fundamenten, die in der Betriebswirtschaftslehre liegen, auseinandersetzen wollen, als auch relevant für Betriebswirte, die aus theoretischer Perspektive, mit der Unterstützung einer konkreten Anwendungsdomäne, einen Einblick in das Informationsmanagement erhalten wollen.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Interorganisationale Geschafätsprozesse in virtuellen Amrktplätzen Chancen und Grenzen für das B-to-B-Geschäft
Boysen, Werner
Universität Wiesbaden (2001)
Abstract:
Der Titel klingt nach einer Dissertation und dieser Eindruck täuscht nicht. Die Arbeit ist über weite Strecken theoretisch und für Nicht-Wissenschaftler wohl schwer zu lesen. Der Autor setzt sich inhaltlich mit kleinen und mittleren Unternehmen auseinander und untersucht, inwieweit internetbasierte Technologien neue Möglichkeiten im sogenannten Business-to-Business-Geschäft eröffnen bzw. wie sie von diesen Unternehmen konkret genutzt werden können. Diese Fragestellung, die vom Autor etwas komplizierter formuliert wird, ist von hoher Relevanz. Der Mittelstand bildet nämlich nach wie vor das Rückgrat der deutschen Wirtschaft, hat aber nicht die gleichen Möglichkeiten zur Nutzung von Informations- und Kommunikationstechnologien wie ein Großunternehmen. Jede Arbeit, die sich systematisch mit diesem Umfeld auseinandersetzt und praxisorientierte Lösungen präsentiert, ist daher in gewissem Sinne als Gewinn anzusehen. Der wirkliche Wert findet sich im vorliegenden Buch aber eher im zweiten Teil, der sich anhand einer Fallstudie mit der Verpackungsindustrie auseinandersetzt. Dies soll natürlich den Beitrag der ersten Hälfte nicht schmälern, nur sind die „Theorien“ inzwischen hinlänglich bekannt und durch abstrakte Kategoriensysteme nicht lebendig zu vermitteln. Der Anfang ist also eine harte Kost für den Leser und in anderen Werken vermutlich besser dargestellt. Neues bringt jedoch der Fokus auf die Verpackungsindustrie ab Kapitel 5. Man würde daher wünschen, dass im Verhältnis zur Theorie dafür mehr Platz verwendet worden wäre. Dies ist natürlich auch ein allgemeines Problem von Dissertationsschriften, wo für das „eigentliche Thema“ oft nicht mehr genügend Zeit bleibt. Im vorliegenden Fall heißt das, dass die Ergebnisse nicht für ein flüssiges Lesen aufbereitet sind. Wortschöpfungen wie „Komplementoren“ „performativ“ oder „Interkonnektibilität“, die im Augenblick die Literatur zur Wirtschaftsinformatik „bereichern“, sind auch in diesem Buch stellenweise zu finden und verstärken den Effekt. Die Mühe lohnt sich aber, wenn jemand an der Verpackungsindustrie interessiert ist. Auch Studenten, die in der Zielgruppe für das Buch genannt sind, finden einen Überblick zum komplexen Phänomen virtueller Marktplätze. Für Dozenten und Mitarbeiter in der Forschung dürfte sich der Mehrwert auf wenige neue Quellen und das Fallbeispiel beschränken.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Postimplementierungsphase von ERP-Systemen in Unternehmen - Organisatorische Gestaltung und kritische Erfolgsfaktoren
Brehm, Lars
Universität Bayreuth (2001)
Comment:
1. Gutachter: Heinzl 2. Gutachter: Remer
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Dynamisches, agentenbasiertes Benutzerportal im Wissensmanagement
Brücher, Heide
RWTH Aachen (2001)
Abstract:
In immer stärkerem Maße wird Wissen zum entscheidenden Produktionsfaktor für die gesamtwirtschaftliche Wertschöpfung. Durchdachte und in die ganzheitliche Betrachtung eingebettete Konzepte zu seiner Nutzung und Entwicklung sind daher von großer Bedeutung. Auf der Basis aktueller Wissensmanagement-Konzepte entwickelt Heide Brücher das Konzept eines Benutzerportals für das Wissensmanagement. Sie zeigt modellhaft die funktionale Umsetzung des Benutzerportals unter Verwendung der Agententechnologie, so dass sowohl das individuelle als auch - darauf aufbauend - das organisationale Wissensmanagement unterstützt werden. Die Autorin gibt Hinweise zur Gestaltung eines dynamischen Benutzermodells und ermöglicht dadurch die für das individuelle Wissensmanagement notwendige Ausrichtung des Benutzerportals.
Comment:
1. Gutachter: Bastian 2. Gutachter: Amberg
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Projektmanagement bei der konzernweiten Einführung eines betriebswirtschaftlichen Standartanwendungssystemes
Bär, Andreas
Universität Mannheim (2001)
Comment:
1. Gutachter: Steffens 2. Gutachter: Niedereichholz
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Konstruktion semantischer Data-Warehouse-Schemata
Böhnlein, Michael
Universität Bamberg (2001)
Abstract:
Data-Warehouse-Systeme haben sich zu einem unverzichtbaren Bestandteil von Führungsinformationssystemen entwickelt. Während die technologischen Plattformen für Data-Warehouse-Systeme bereits ausgereift sind, besteht ein erhebliches Forschungsdefizit im Bereich der fachlichen Modellierung von Data-Warehouse-Schemata. Michael Böhnlein präsentiert eine methodenorientierte Untersuchung zur Konstruktion semantischer Data-Warehouse-Schemata. Er analysiert und bewertet Ansätze zur konzeptuellen Modellierung von Data-Warehouse-Systemen und erarbeitet auf dieser Grundlage einen neuen Modellierungsansatz: das Semantische Data-Warehouse-Modell (SDWM). Zusammen mit einer ebenfalls von ihm entwickelten Vorgehensweise zur Konstruktion von Data-Warehouse-Strukturen auf der Grundlage von Geschäftsprozessmodellen entsteht so eine umfassende Modellierungsmethodik
Comment:
1. Gutachter: Sinz (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Erfolgsfaktoren im Business-to-Consumer-E-Commerce
Böing, Christian
Universität Münster (2001)
Abstract:
Ausgangspunkt des Forschungsprojektes war der wenig fortgeschrittene Forschungsstand in der Erfolgsfaktorenforschung zum E-Commerce in Business-to-Consumer-Märkten. Wenngleich zahlreiche Veröffentlichungen und Studien existieren, in denen Erfolgsfaktoren im E-Commerce thematisiert werden, so ist jedoch die Vielzahl dieser Arbeiten theoretisch-konzeptionell angelegt. Entsprechend gehen die Erkenntnisse oftmals nicht über Vermutungen hinaus. Erfolgsfaktorenstudien mit empirischer Fundierung stellen indes die große Ausnahme dar. Geleitet von der Erkenntnis, dass in der Erfolgsfaktorenforschung die Durchführung einer Studie mittels einer konfirmatorischen Untersuchungsmethodik erstrebenswert ist, war es das grundsätzliche Ziel des Forschungsprojektes, einen umfassenden Beitrag zur Erfolgsfaktorenforschung im E-Commerce zu leisten, indem theoriegeleitet Untersuchungshypothesen über die Determinanten des Erfolges im E-Commerce aufgestellt wurden und jeweils eine empirische Validierung der Hypothesen erfolgte. Zur Eingrenzung potenzieller Erfolgsfaktoren im E-Commerce wurde durch einen Rekurs auf verschiedene theoretische Ansätze bzw. Forschungsbereiche ein allgemeiner Bezugsrahmen hergeleitet. Zu diesen Ansätzen zählten die Industrial-Organization-Forschung, der ressourcenorientierte Ansatz, der situative sowie der entscheidungsorientierte Ansatz. Im Rahmen der theoretisch-konzeptionellen Analyse wurden der Einfluss verschiedener Konstrukte auf den Erfolg analysiert und einzelne Untersuchungshypothesen formuliert. Als Argumentationsbasis dienten dabei die Ergebnisse der übergreifenden (nicht auf den Bereich des E-Commerce bezogenen) empirischen Erfolgsfaktorenforschung, die Ergebnisse von speziellen Erfolgsfaktorenstudien zum E-Commerce und die Besonderheiten der Internet-Ökonomie. Insgesamt wurde der Einfluss von 34 Konstrukten auf den Erfolg im E-Commerce geprüft und die gleiche Anzahl von Untersuchungshypothesen formuliert. Grundlage der empirischen Arbeiten war einerseits eine Befragung von E-Commerce-Anbietern zur indirekten Ermittlung von Erfolgsfaktoren und andererseits eine Expertenbefragung, bei der Experten direkt nach den ihrer Meinung nach relevanten Erfolgsfaktoren im E-Commerce befragt wurden. Die Multikausalität des Konstruktes "Erfolg im E-Commerce" machte die Anwendung eines statistischen Auswertungsverfahrens erforderlich, das neben der gleichzeitigen Berücksichtigung einer großen Zahl von Determinanten des Erfolges in der Lage war, auch Interdependenzen und Messfehler zu berücksichtigen sowie eine Trennung von theoretischer und empirischer Sprache abzubilden. Aus diesem Grund wurde mit der Kausalanalyse ein sehr anerkanntes und leistungsfähiges Auswertungsverfahren angewendet. Durch die Zusammenführung der signifikanten Einflussfaktoren aus verschiedenen Teilmodellen in ein Gesamtmodell konnte sodann kausalanalytisch bestätigt werden, dass durch den Bezugsrahmen der Untersuchung die wesentlichen Erfolgsdeterminanten im E-Commerce erfasst wurden. Mit einer erklärten Varianz von 0,79 ist der Untersuchung eine hohe nomologische Validität zu bescheinigen. Im Rahmen der Ableitung von Aussagen über geschäftstypenspezifische Erfolgsfaktoren für die drei Geschäftstypen Hersteller, Handel und Internet-Startup-Unternehmen wurde eine empirische Analyse in zwei Schritten durchgeführt. In einem ersten Schritt wurde für die drei Geschäftstypen zunächst isoliert analysiert, hinsichtlich welcher Variablen sich erfolgreiche und nicht erfolgreiche E-Commerce-Anbieter voneinander unterscheiden. Im zweiten Analyseschritt wurden sodann Unterschiede zwischen den Geschäftstypen aufgedeckt. Wenngleich die im Rahmen dieser empirischen Analyse aufgedeckten Unterschiede aufgrund der Stichprobengröße lediglich als erste Tendenzaussagen zu begreifen sind, konnte festgestellt werden, dass sich das Verhalten von Herstellern sehr vom Verhalten von Internet-Startup-Unternehmen unterscheidet, während zwischen Händlern und Internet-Startup-Unternehmen relativ wenige Unterschiede bestehen. Insgesamt zeigt sich ferner, dass die vorgenommene Trennung der drei Geschäftskonzepte im E-Commerce grundsätzlich tragfähig ist. Die empirische Analyse hat offengelegt, dass sich geschäftstypenspezifische Erfolgsfaktoren ermitteln lassen. In einer abschließenden Würdigung der Untersuchungsergebnisse ist festzuhalten, dass sich die vielerorts bekundeten "neuen Marktgesetze der Internet-Ökonomie" in der vorliegenden Untersuchung nicht widerspiegeln. Im E-Commerce gelten keine vollständig neuen Regeln, denn die Vielzahl der in dieser Arbeit identifizierten Erfolgsfaktoren ist auch aus anderen (technologiegetriebenen) Branchen bekannt und wird entsprechend intensiv seit geraumer Zeit in Wissenschaft und Praxis diskutiert.
Comment:
1. Gutachter: Meffert 2. Gutachter: Klein
edit comment | edit entry | edit Topics | edit Category | display Bibtex
E-Learning Architektur für universitäre Lehr- und Lernprozesse
Coenen, Olaf
Universität Köln (2001)
Abstract:
Das vorliegende Buch ist eine Dissertationsschrift mit allen Merkmalen einer wissenschaftlichen Arbeit. Man kann sie in die Reihe einer kleinen Anzahl ähnlich gelagerter Arbeiten stellen, die parallel, interessanterweise aber ohne inhaltliche oder personelle Verflechtung, z.B. in Bamberg, Regensburg und einigen anderen Orten, entstanden sind. Es handelt sich um die Dokumentation jener Projekte, bei denen E-Learning-Plattformen entwickelt und in einem etwas größeren Rahmen im Hochschulumfeld erprobt worden sind. Deutschlands Hochschulen sind in dieser Hinsicht ohnehin als zögerlich zu bezeichnen, da an den meisten Institutionen keine klare Strategie zur Nutzung der Internet-Technologien in der Lehre besteht. Der Titel des Buches ist nicht ganz treffend gewählt, weil technisch-konzeptionelle Überlegungen trotz des mehr als 500 Seiten umfassenden Inhalts nicht vertiefend behandelt werden. Das Pilotsystem wurde auf der Basis von Lotus Domino, Learningspace sowie verschiedener Microsoft-Technologien realisiert. Die Darstellung ist über weite Strecken eher akademisch-theoretisch und vieles hätte sich sicherlich kürzer oder konkreter fassen lassen. Auch als Nachschlagewerk für einschlägige Literatur zum E-Learning ist das Buch nicht unbedingt geeignet, da sich zwar viele bekannte Quellen finden, aber eine wirklich gründliche Recherche vermisst wird. Dafür wird gerne auf allgemeine Wirtschaftsinformatik-Literatur zurückgegriffen, die für dieses spezielle Thema nicht wirklich weiterführend ist. Etwa zur Hälfte des voluminösen Werkes erfolgt der Übergang zum empirischen Teil, bei dem die Ziele mit Hilfe von Hypothesen an Unterrichtsteilnehmern überprüft werden. Der akademische Charakter setzt sich auch hier fort und macht die Lektüre oft etwas mühsam. Auch die Thesen hätten sich wohl prägnanter und kürzer fassen lassen können. Trotzdem bietet diese breite Darstellung viel Datenmaterial und auch einen recht umfassenden Einblick. Selbst wenn die Ergebnisse an manchen Stellen fast trivial wirken, können sie als Referenz für weitere Untersuchungen im Hochschulumfeld dienen. Und darin wird auch die Stärke des Buches gesehen, das trotz gegenteiliger Hinweise im Geleitwort vor allem Wissenschaftlern empfohlen wird. Über E-Learning-Architekturen im engeren Sinne erfährt man aber eher nur wenig.
Comment:
1. Gutachter: Seibt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modellierung analytischer Informationssysteme : ein Konzept zur multidimensionalen Datenstrukturierung
Determann, Lorenz
RWTH Aachen (2001)
Abstract:
Die Nutzung Analytischer Informationssysteme zur Versorgung des Managements mit entscheidungsrelevanten Informationen hat sich in Großunternehmen bereits weitgehend etabliert. Als technische Basis für das Data Warehouse dienen dabei entweder relationale oder spezielle multidimensionale Datenbanken, wobei sich diese Alternative auch in den marktgängigen Produkten manifestiert. Die Effizienz und Erweiterbarkeit eines Data Warehouse hängt nun ganz wesentlich von einer geschickten Datenmodellierung im Vorfeld der Einführung ab. Insbesondere für relationale Datenbanken gibt es eine Fülle von Publikationen, die sich mit geeigneten Modellierungskonzepten für Data Warehouse-Anwendungen auseinandersetzen. Aus Gründen der Flexibilität erscheint es jedoch wünschenswert, die Datenmodellierung zunächst unabhängig von der technischen Implementierung in einem semantischen Datenmodell vorzunehmen. Dies ist im Bereich transaktionsorientierter Datenbanken gang und gäbe, die Methoden für die semantische Modellierung eines Data Warehouse sind jedoch weit weniger ausgereift und bieten den Ansatzpunkt für das in dieser Arbeit entwickelte Vorgehenskonzept. Ausgehend von einer formalen Beschreibung der Struktur multidimensionaler Datenmodelle werden zunächst die Defizite der bekannten Verfahren herausgearbeitet und der Bedarf nach einer neuen Methodik wird motiviert. Vor dem Hintergrund einer gelungenen Darstellung des Data Warehouse-Konzepts und von OLAP entwickelt der Autor dann eine innovative Methodik zur semantischen Modellierung multidimensionaler Daten, deren Praktikabilität anhand eines Beispiels demonstriert wird. Dabei beschränkt er sich nicht nur auf die Modellierung der Beziehungen von Attributen innerhalb einer Dimension sowie zwischen Dimensionen, sondern stellt auch Diagrammtypen zur Dokumentation möglicher Aggregationspfade sowie zur Abschätzung des Speicherplatzbedarfs bereit. Darüber hinaus wird ein Konzept für ein Modellierungswerkzeug zur Unterstützung der Methodik erarbeitet und ein Prototyp entwickelt. Das Buch bietet eine klare Analyse des Themenbereichs sowie einen fundierten Leitfaden für alle, die sich in Praxis, Forschung oder Lehre mit der Einführung von Data Warehouse-Systemen auseinandersetzen.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Systematische Wiederverwendung in der Software-Entwicklung
Dietzsch, Andreas
TU Dresden (2001)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Ontologien zur konzeptuellen Modellierung der Semantik von XML
Erdmann, Michael
Universität Karlsruhe (2001)
Comment:
1. Gutachter: Studer 2. Gutachter: Weinhardt
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Konzept zum Aufbau eines Markdateninformationssystems für den Energiehandel : auf der Basis interner und externer Daten
Felden, Carsten
Universität Duisburg (2001)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Softwarevalidierung durch Auswertung von Petrinetz-Abläufen
Freytag, Thomas
Universität Karlsruhe (2001)
Comment:
1. Gutachter: Desel 2. Gutachter: Hammer
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Architekturen für komponentenbasierte Geographische Informationssysteme im Internet
Friebe, Jörg
Universität Oldenburg (2001)
Abstract:
Die rechnergestützte Verwaltung geographischer Informationen stellt aufgrund der Komplexität und Fülle der zugrundeliegenden Daten besonders hohe Anforderungen an Informationssysteme. Zu ihrer Bewältigung werden geographische Informationssysteme (GIS) eingesetzt. Diese spezialisierten Systeme dienen der Erfassung der geographischen Daten von analogen Vorlagen, ihrer Analyse und Auskunft. Einsatz finden GIS überall dort, wo geographische Informationen benötigt werden, z.B. in Raumplanung, Energieversorgung und Mobilfunk. Typischerweise werden geographische Daten anwendungsabhängig und redundant gespeichert. Ihre wirtschaftliche Verwaltung ist jedoch nur gewährleistet, wenn diese einer großen Anwenderschaft zur Verfügung gestellt werden. In dieser Arbeit wird eine Architektur zur Nutzung von GIS-Funktionalität über Internet-Technologie vorgestellt. Nach einer Aufarbeitung der Grundlagen von GIS wird klar, daß diese - verglichen mit Datenbank-basierten Standard-Informationssystemen - große Defizite im Bezug auf Offenheit, Interoperabilität und Web-Integration haben. Während erstere, insbesondere relationale Datenbankmanagementsysteme (DBMS), bzgl. Funktionalität, Anfragesprache und Programmiersprachenkopplung weitgehend standardisiert sind und sich heterogene relationale Datenquellen mit etablierten Technologien leicht innerhalb einer Anwendung zusammenführen lassen, ist dies bei geographischen Daten nicht der Fall. Um solche Daten einer Vielzahl potentieller Nutzer zugänglich zu machen, wird eine InterGIS genannte Architektur vorgeschlagen, die konsequent komponentenbasiert ausgelegt ist und eine einfache Integration der benötigten Komponenten in Anwendungen erlaubt. InterGIS berücksichtigt auch bereits bestehende Anwendungen aus der "GIS-Welt" und Standardisierungsvorschläge des OpenGIS-Consortium. Im Unterschied zu vergleichbaren Ansätzen wird jedoch nicht Datenintegration durch deren übernahme in ein separates DBMS angestrebt, sondern Integration von GIS-Funktionalität bereits bestehender Systeme. Als Datenquellen können, neben relationalen oder objektorientierten DBMS, auch dateibasierte Datenhaltungskomponenten oder kommerzielle GIS zum Einsatz kommen. Insbesondere ist der integrierte Zugriff auf mehrere solcher Komponenten möglich. Zur Durchführung geographischer Analysen und Auswertungen wird eine deklarative, auf SQL basierende Anfragesprache entworfen. Hierdurch ist es möglich, in den verschiedenen Datenhaltungskomponenten nach Geo-Objekten zu suchen und diese in andere Anfragen einzubeziehen. Über eine Anfrageverarbeitungskomponente ist in InterGIS ein integrierter Zugriff auf mehrere Datenhaltungskomponenten möglich. Schließlich werden neben standardisierten Schnittstellen (ODBC, JDBC) Präsentationskomponenten vorgestellt, die die Einbindung von GIS-Funktionalität auf hohem Abstraktionsniveau erlauben. Es werden Techniken entwickelt, die eine Einbettung in Büroanwendungen und Web-Präsentationen ermöglichen und verschiedenen Anforderungen nach Interaktivität und Plattformunabhängigkeit genügen, etwa Java-, ActiveX- und rasterbasierte Ansätze.
Comment:
1. Gutachter: Appelrath
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konzeption internetbasierter Informationssysteme in Konzernen - Inhaltliche, organisatorische und technische öberlegungen zur internetbasierten Informationsverarbeitung in Konzernen
Greve-Kramer, Wolfgang
Universität Göttingen (2001)
Abstract:
Internetbasierte Informationssysteme werden von Unternehmen in den verschiedensten Formen zur Bereitstellung von Informationen und Applikationen sowie zur Kommunikation genutzt. Auf der Ebene von Konzernen stellt sich dabei die Frage, welche Teile internetbasierter Informationssysteme zentral und damit konzernweit bereitgestellt werden sollten und welche im Verantwortungsbereich der Konzernunternehmen verbleiben. Die vorliegende Arbeit diskutiert diese Frage vor dem Hintergrund verschiedener Konzernformen. Darüber hinaus werden inhaltliche, organisatorische und technische Fragestellungen internetbasierter Informationssysteme thematisiert. Zunächst werden potenzielle Inhalte und Anwendungsfelder identifiziert. In einem zweiten Schritt werden organisatorische Voraussetzungen und Maßnahmen diskutiert und bewertet. Im dritten Schritt wird die technische Ausgestaltung internetbasierter Informationssysteme untersucht. Clientseitig dient der Web-Browser als universelles Frontend, serverseitig sind Hardware- und Software-Ressourcen zur Informationsbereitstellung, zur Kommunikationsunterstützung sowie zur Implementierung webbasierter Applikationen bereitzustellen. Die organisatorischen und technischen Überlegungen werden durch Integrationsbetrachtungen abgeschlossen. Das Buch wendet sich an Praktiker aus dem IT-Umfeld sowie an Dozenten und Studierende der Wirtschaftsinformatik, die sich mit Konzeption und Realisierung internetbasierter Informationssysteme beschäftigen.
Comment:
1. Gutachter: Schumann 2. Gutachter: Biethahn
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Anonymitätseffekte bei der Groupware-Nutzung - Eine strukturationtheoretische empirische Analyse
Gräslund, Karin
Universität Hohenheim (2001)
Abstract:
Der computerunterstützten Gruppenarbeit wird eine Reihe positiver und negativer Anonymitätseffekte zugeschrieben. Die nicht-identifizierte Teamarbeit via Computer soll zu kreativeren Arbeitsergebnissen, ehrlicher Meinungsäußerung und gleichberechtigter Partizipation der Gruppenmitglieder, aber auch zum "Trittbrettfahrer"-Phänomen führen. Bisher konnte die empirische Forschung aber keine einheitlichen Wirkungsmuster nachweisen.Aufbauend auf den divergenten Ergebnissen abgeschlossener Untersuchungen untersucht Karin Gräslund die Anonymitätseffekte der computerunterstützen Gruppenarbeit in einem interdisziplinären Forschungsdesign. Auf der Basis einer ganzheitlichen Klassifikation der anonymen Gruppeninteraktion nach ihren sozialen, methodischen und technischen Momenten entwickelt die Autorin einen strukturationstheoretischen Awareness-Ansatz, der Grundlage dezidierter Gestaltungsempfehlungen für Groupware sein kann.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Die Adoption des Electronic Commerce im Einzelhandel - Ergebnisse einer kausalanalytischen Untersuchung
Güttler, Wolfgang
Universität Bayreuth (2001)
Abstract:
Dieser Beitrag untersucht die Adoption des Electronic Commerce im deutschen Einzelhandel aus einer innovationstheoretischen Perspektive. Es wird ein Kausalmodell entwickelt, dass die Adoption des Electronic Commerce im Einzelhandel erklären soll. Es werden hierbei Faktoren in das Modell aufgenommen, welche die Eigenschaften des Electronic Commerce, die Eigenschaften des Unternehmens und Umwelteinflüsse berücksichtigen. Dieses Kausalmodell wird mit den Daten getestet, die von 247 Unternehmen des deutschen Einzelhandels erhoben wurden. Die Ergebnisse zeigen, dass vor allem die Förderung durch die Unternehmensführung sowie die Kompatibilität des Electronic Commerce für die Adoption von Bedeutung sind.
Comment:
1. Gutachter: Heinzl 2. Gutachter: Woratschek
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Organisational-Memory-Systeme für das Management von Geschäftsprozesswissen
Habermann, Frank
Universität Saarbrücken (2001)
Comment:
1. Gutachter: Scheer
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Strategische Entwicklung der Informationsinfrastruktur - Management der Integration heterogener Systemlandschaften in dynamischen Ressourcen-Netzen:das dRN-Konzept
Habertag, Patrick
Universität Halle (2001)
Comment:
1. Gutachter: Picht 2. Gutachter: Gmilkowsky
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Ein Referenzmodell für Online-Transaktionssysteme im Electronic Government
Hagen, Martin
Universität Bremen (2001)
Abstract:
Durch E-Government erschließen sich neue Ansatzpunkte zur Optimierung von Verwaltungsprozessen und Verwaltungsstrukturen sowie zur Verbesserung der Bürgernähe und der Dienstleistungsqualität öffentlicher Verwaltungen. Informationssysteme, die insbesondere an externe Partner gerichtete Verwaltungsleistungen unterstützen und moderne Internet-Technologien verwenden, werden vom Autor als Online-Transaktionssysteme bezeichnet. Zahlreiche E-Government-Projekte, Einzelentwicklungen, Konzepte und Strategien zeugen von dem verstärkten Bemühen, Verwaltungsabläufe durch Online-Transaktionssysteme zu rationalisieren bzw. effizienter zu gestalten. Diese an der Universität Bremen verfasste Dissertation geht von dem Grundgedanken aus, dass das vom Autor vorgestellte Referenzmodell Schwachpunkte bisheriger Entwicklungen im E-Government dadurch vermeidet, indem es Kernfunktionen, flankierende Maßnahmen und soziotechnische Rahmenbedingungen von Online-Transaktionssystemen und die damit verbundenen Entwicklungsaufgaben systematisch beschreibt. Mit dem vorliegenden Buch ist es dem Autor gelungen, das Defizit an bisher kaum vorhandenen Publikationen zur Anwendungsentwicklung im Bereich E-Government zu verringern. In insgesamt acht gut strukturierten Kapiteln wird ausgehend vom systemtheoretischen Verständnis der Informationssystementwicklung und einer klaren Abgrenzung solcher Begriffe wie E-Government und Online-Transaktionssystem [Kapitel 1], über die Untersuchung von existierenden Referenzmodellen der Angewandten Informatik [Kapitel 2], der Darstellung des bisherigen Entwicklungsstandes von Online-Transaktionssystemen [Kapitel 3] und der Beschreibung von Projekten der Jahre 1997 - 2000 auf diesem Gebiet [Kapitel 4 und 5] ein Referenzmodell für Online-Transaktionssysteme in der öffentlichen Verwaltung [Kapitel 7 und 8] erarbeitet. Der Praxisbezug des Referenzmodells von Hagen gegenüber bisher verfügbaren allgemeinen Modellen wird dadurch hergestellt, dass Fallbeispiele aus Deutschland und den USA analysiert und erprobte Lösungskonzepte (Bremer Online Services) verallgemeinert werden. Das vorliegende Buch ist neben der Leserschaft im Umfeld der E-Government-Forschung insbesondere auch den Verantwortlichen für E-Government in den öffentlichen Verwaltungen aufgrund des ausgeprägten Praxisbezuges als gute Grundlage für die Entwicklung erforderlicher Soll-Konzepte zur Umsetzung des Electronic Government in ihren Verantwortungsbereichen zu empfehlen.
Comment:
1. Gutachter: Kubicek
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Computergestützte Auswahl komponentenbasierter betrieblicher Anwendungssysteme unter besonderer Berücksichtigung der Selektion durch steuerliche Berater
Hau, Michael
Universität Erlangen-Nürnberg (2001)
Abstract:
Aufbauend auf den Erfahrungen des Projekts „Kooperative Entwicklung von branchen- und betriebstypischen Anwendungsarchitekturen (KEBBA)“ entstand in Zusammenarbeit mit der DATEV eG ein Komponenten-Repository. Es enthält die technischen und betriebswirtschaftlichen Spezifikationen der mit einem Kern von Anwendungen dieses Unternehmens integrierbaren Produkte sowie Möglichkeiten zu ihrer Administration und stellt somit die Infrastruktur eines Softwaremarktes zur Verfügung. Darüber hinaus werden um das Repository herum Beratungsprodukte zur merkmalsbasierten Softwareauswahl entwickelt, die den Integrations-prozess vereinfachen und beschleunigen.
Comment:
1. Gutachter: Mertens
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Informations- und Kommunikationstechnologie beim Wissensmanagement - Gestaltungsmodell für die industrielle Produktentwicklung
Heckert, Uwe
Universität Göttingen (2001)
Abstract:
Die Bedeutung der Ressource Wissen für den Unternehmenserfolg steht außer Frage. Doch über die Werkzeuge des Wissensmanagements, vor allem über den Beitrag der Informations- und Kommunikationstechnologie (IKT) wird kontrovers diskutiert.Uwe Heckert strukturiert die relevanten IKT-Werkzeuge und analysiert sie in Hinblick auf ihre generellen Einsatzmöglichkeiten beimWissensmanagement sowie in der industriellen Produktentwicklung. Er zeigt Wege zur Abstimmung mit organisatorischen Werkzeugen auf, welche einerseits in direkter Konkurrenz zur IKT eingesetzt werden und andererseits beim Schaffen geeigneter formeller und informeller Rahmenbedingungen für den IKT-Einsatz helfen. Ergebnis ist ein Gestaltungsmodell, das Vorgehensschritte und Entscheidungskriterien für die Umsetzung von Wissensmanagement bietet. Die gewonnenen Erkenntnisse basieren im wesentlichen Unternehmensbefragungen in Europa, USA und Japan und werden durch zahlreiche Fallbeispiele veranschaulicht.
Comment:
1. Gutachter: Schumann 2. Gutachter: Bloech
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konfigurierbare Softwareagenten zur Unterstützung von Koodinationsvorgängen in Electronic Business Networks
Hofmann, Oliver
Universität Erlangen-Nürnberg (2001)
Abstract:
Unternehmensnetzwerke, die sich flexibel konstituieren und kurz- bzw. mittelfristig ändern oder wieder zerfallen, führen zu neuen Herausforderungen für eine IV-basierte Koordinationsunterstützung. Herkömmliche Ansätze besitzen eine im Verhältnis zur Nutzungsdauer viel zu lange ”Rüstzeit“, da die zu verbindenden IV Systeme selten die für die Kooperation nötigen Schnittstellen besitzen und diese aufwändig realisiert bzw. angepasst werden müssen. Ein agentenorientierter Ansatz propagiert eine durchgängig erhöhte Flexibilität der Systemschnittstellen verbunden mit gesteigerter Adaptionsfähigkeit der Systemkomponenten, da sich Agenten mithilfe von Mechanismen der künstlichen Intelligenz in unterschiedlichen Szenarien einsetzen lassen. Durch die Nutzung sprechaktbasierter Agentenkommunikationssprachen, symbolischer Umweltmodelle und gemeinsamer Ontologien entstehen konfigurierbare Agentensysteme, die der Dynamik elektronisch kommunizierender Unternehmensnetzwerke gerecht werden können. Eine sich ändernde Aufbauorganisation erfordert zugleich einen steten Wandel der Ablauforganisation. Ziel einer Geschäftsprozessmodellierung in einem Electronic Business Network muss es daher sein, generische Teilprozessmodelle zu identifizieren, die sich kurzfristig zu komplexeren Modellen komponieren lassen. In der vorliegenden Arbeit werden für wiederkehrende Teilprozesse standardisierte Vorgangsbausteine vorgeschlagen, die durch Konkretisierung zu Verhaltensmustern einer Unterstützung durch Softwareagenten zugänglich werden. Verhaltensmusterspezifikationen benötigen eine Laufzeitumgebung, die für Agenten notwendige Funktionalitäten bietet, wie z.B. Kommunikationsprimitive oder Mechanismen zur Speicherung und Pflege eines Umweltmodells. Die konzipierte generische Agentenarchitektur beinhaltet eine Vielzahl dieser Dienste und spezifiziert zugleich Regeln für das Zusammenwirken der Teilkomponenten. Mithilfe eines objektorientierten Frameworks ist die Architektur exemplarisch implementiert. Das Framework ist so gestaltet, dass die Referenzimplementierung leicht ergänzt bzw. modifiziert werden kann. Durch die Substitution des in der Referenzimplementierung enthaltenen STRIPS- Planers durch den Graphplan- Algorithmus ist die Adaptierbarkeit des Frameworks exemplarisch aufgezeigt. Architektur und Framework sind als Ganzes oder auch in Teilen in eine Reihe von Agentensystemimplementierungen eingegangen. Die resultierenden Erfahrungen haben unmittelbar auf das Design und die Implementierung eingewirkt. Auch wenn das Framework als Ganzes noch immer als Prototyp zu betrachten ist, so haben sich diese Rückkopplungszyklen in Praxiskooperationen als ein gangbarer Weg erwiesen, die Qualität der realisierten Agentensysteme sukzessive zu verbessern. Gerade im Umfeld komplexer Agenteninteraktion kommt der Wiederverwendung qualitätsgesicherter Teilkomponenten eine besondere Bedeutung zu. Die der Architektur und dem Framework zugrunde liegende musterbasierte Herangehensweise, verbunden mit der Bereitstellung eines Baukastens erprobter Muster und Verfahren, hat sich bewährt. Agentensysteme sind Abbild kooperativer Gemeinschaften von Individuen. Vor diesem Hintergrund ist die enge Verwandtschaft zwischen Methoden der Organisationsgestaltung und der Realisierung von Agentensystemen nicht verwunderlich. Gerade deshalb muss beim Entwurf eines Agentensystems stets die Frage im Mittelpunkt stehen, wie das Koordinationsproblem durch menschliche Akteure gelöst würde. Daraus ergibt sich eine Entwurfsmethodologie, die auf die Abbildung von Organisationsstrukturen fokussiert, die auch ohne IV- Unterstützung, aber dann zu vermutlich höheren Kosten, eingerichtet werden könnten. In Analogie zu in Organisationen verwendeten vertraglichen Regelungen der Kooperation können auch Agentensysteme kontraktbasiert entwickelt werden. Diese formalen Kontrakte sind Kernbestandteil der Entwurfsmethodologie und dienen der Dokumentation und der Qualitätssicherung sowie einer Erhöhung der Wiederverwendbarkeit. Die in den letzten Jahren diskutierten Formen des ”Electronic Business“ bieten neue Ansatzpunkte für die Gestaltung wirtschaftlicher Handlungssysteme, insbesondere im Hinblick auf marktbasierten Koordinationsverfahren. In der vorliegenden Arbeit werden einige Gestaltungskonzepte, wie z.B. Börsen, Auktionen oder hierarchische Kontraktnetze, auf die Konfiguration von Agentensystemen übertragen und in einem Musterkatalog zusammengefasst. Ausgewählte Beispiele untermauern die Einsatzfähigkeit der beschriebenen Agentensystemmuster in unterschiedlichen Anwendungsdomänen, wie z.B. bei der Bündelung von Versicherungsprodukten, bei der Optimierung von Schichtdienstplänen oder beim Tracking und Tracing von Logistikketten. Viele dieser Einsatzszenarien sind eng mit der Vorstellung elektronisch kommunizierender Unternehmensnetzwerke verbunden, da nur in solchen Electronic Business Networks aufgrund sinkender Transaktionskosten kommunikationsintensive Koordinationsverfahren effizient angewandt werden können.
Comment:
1. Gutachter: Bodendorf 2. Gutachter: Görz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Terminologische Sprachen zur Repräsentation und Lösung von ressourcenabhängigen Ablaufplanungsproblemen mit Prozessvarianten
Kim, Pok-Son
Universität Frankfurt a.M. (2001)
Comment:
1. Gutachter: König 2. Gutachter: Schmidt-Schauß
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
State-of-the-Art des Einsatzes von Wissensmanagementsystemen in Unternehmen
Klosa, Oliver
Universität Regensburg (2001)
Abstract:
Das Wissen der Mitarbeiter ist für Unternehmen eine wichtige Ressource, die organisiert, gelenkt und strategische genutzt werden muss. Neue Computersysteme, so genannte Wissensmanagementsysteme, können dabei behilflich sein. Über ihren Funktionsumfang und ihre Einsatzmöglichkeiten herrscht aber noch weitgehend Unklarheit. Oliver Klosa präsentiert eine Bestandsaufnahme von Wissensmanagementsystemen und ihrer Funktionalität. Er untersucht Einsatz und State-of-the-Art des Einsatzes solcher Systeme in grossen deutschen Unternehmen und erarbeitet eine Grundlage zur Bestimmung verschiedener Einsatzfelder und zur Auswahl geeigneter Systeme.
Comment:
1. Gutachter: Lehner
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entwicklung computergestützter betrieblicher Informationssysteme auf Basis von Geschäftskomponenten nach dem 'BOOSTER-Ansatz'
Korthaus, Axel
Universität Mannheim (2001)
Abstract:
Die für den Unternehmenserfolg beständig zunehmende Bedeutung von Softwaresystemen zur Unterstützung bzw. sogar Ermöglichung der Unternehmenstätigkeit und die Dynamik der sich ändernden Rahmenbedingungen, wie beispielsweise das Aufkommen neuer Technologien (z.B. World Wide Web) und damit verbunden die Ermöglichung neuartiger Geschäftsprozesse (z.B. Electronic Commerce), führen zu steigenden, sowohl entwicklungsprozeß- als auch softwareproduktbezogenen Anforderungen an die Softwaretechnik. In diesem Buch werden in Form des BOOSTER-Ansatzes ein Konzeptionsrahmen und eine Vorgehensweise zur Entwicklung von computergestützten, verteilten, betrieblichen Informationssystemen auf der Basis von Geschäftskomponenten beschrieben, mit denen den veränderten Anforderungen begegnet werden soll.
Comment:
1. Gutachter: Schader 2. Gutachter: Niedereichholz
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Management von Softwareprojekten: Erfolgs- und Misserfolgsfaktoren bei international verteilter Entwicklung
Kotulla, Andreas
Universität Hohenheim (2001)
Abstract:
Gescheiterte, abgebrochene oder verspätet fertiggestellte Softwareprojekte verursachen jährlich einen immensen Schaden in der IT-Industrie. Je größer und umfangreicher das Projekt, so die bisherigen Forschungsergebnisse, desto höher ist die Chance, dass es nicht erfolgreich abgeschlossen wird. Die Wissenschaft versucht seit Jahren, die Prozesse zur Softwareerstellung so zu definieren, daß das Erstellungsrisiko minimiert wird. Die der Entwicklung zugrundegelegten Methoden wurden dabei in den letzten Jahrzehnten durch neue Erkenntnisse und Technologiebrüche mehrfach komplett überholt. Bedingt durch diese Forschungsresultate konnte die Erfolgswahrscheinlichkeit von Softwareprojekten erhöht werden, immer noch gibt es jedoch spektakuläre Fehlschläge, obwohl "alles richtig" gemacht wurde, vor allem bei großen Projekten. Die Ursachenforschung bietet wenig bis gar keine Erklärungen für die hohe Anzahl an Fehlschlägen bei komplexen Softwareprojekten, detaillierte Daten sind selten öffentlich zugänglich. Was jedoch sind die Unterschiede zwischen "großen" bzw. "komplexen" und "kleinen" Softwareprojekten? Wo läßt sich eine Grenze ziehen? Gibt es unterschiedliche Erfolgsfaktoren für diese zwei Projekttypen, und wenn ja, welche? Diese Arbeit präsentiert Antworten auf diese Fragen und Lösungsvorschläge zur Handhabe von komplexen Softwareprojekten, basierend auf einer empirischen Fallstudie, die in einer global vertretenen Telekommunikationsfirma durchgeführten wurde. Sie schließt damit eine Lücke der bisherigen Forschung kritischer Erfolgsfaktoren von komplexen, global verteilt durchgeführten Softwareentwicklungen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integration der Informationsverarbeitung in Mergers & Acquisitions - Eine empirische Untersuchung
Kromer, Gerald
Universität Karlsruhe (2001)
Abstract:
Mergers & Acquisitions prägen das heutige Wirtschaftsgeschehen. Dabei verdeutlichen zahlreiche Mißerfolge, daß der Integration der beteiligten Unternehmen besondere Aufmerksamkeit zu widmen ist. Integration in Mergers & Acquisitions wird bei steigender informationstechnischer Durchdringung betrieblicher Wertschöpfungsketten jedoch immer mehr zu einer Frage der Verzahnung der Informationsverarbeitung der beteiligten Unternehmen. Diese Untersuchung unterstützt IV- und Fachbereichsmanager darin, Hard- und Systemsoftware, Anwendungssysteme und IV-Organisationen in Mergers & Acquisitions erfolgreich zu integrieren. In persönlichen Befragungen wurden für 20 horizontale Mergers & Acquisitions detaillierte Einsichten in typische Problemstellungen der IV-Integration gewonnen. Die von der Praxis entwickelten Lösungsansätze werden auf Basis eines situativen Analysemodells evaluiert. Die Ergebnisse dokumentieren die Ziele, welche IV-Manager ihrem Handeln in Mergers & Acquisitions zugrunde legen, und messen das Erfolgsniveau der IV-Integration. Weiter erfolgt eine detaillierte Bestandsaufnahme der Verzahnung von IV-Ressourcen und der Gestaltung des IV-Integrationsprozesses in Mergers & Acquisitions. Unterschiedliche Integrationsansätze werden auf ihre situativen Einflußfaktoren und ihren Erfolgsbeitrag hin analysiert.
Comment:
1. Gutachter: Stucky 2. Gutachter: Weinhardt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konzeption von Kernnetzknoten: Referenzmodelle für Design und Implementierung
Krämer, Nikolai A.
Universität Tübingen (2001)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Wissen und Information in konditionalen Modellen : zur Entscheidungsvorbereitung im Anfrage- und Auftragsmanagement
Kulmann, Friedhelm
Fernuniversität Hagen (2001)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Meta-Datenmanagement in Data-Warehouse-Systemen - Rekonstruierte Fachbegriffe als Grundlage einer konstruktiven, konzeptionellen Modellierung
Lehmann, Peter
Universität Magdeburg (2001)
Abstract:
Inhaltsverzeichnis 1 Einleitung 1 2 Grundlagen und Hinführung zum Thema 3 2.1 Unternehmensressource Information 3 2.2 Probleme bei der Informationsbewertung 4 2.3 Wandel der Benutzergruppen 7 2.4 Vom transaktions- zum entscheidungsorientierten Informationssystem 8 2.5 Das Data Warehouse als Instrumentarium zur Entscheidungsunterstützung 10 2.6 Nutzenpotentiale 13 2.7 Kritische Erfolgsfaktoren für die Implementierung eines Data Warehouse 16 2.7.1 Nutzen von Daten 16 2.7.2 Konsensfähige Unternehmensfachbegriffe 17 2.7.3 Qualität der Data-Warehouse-Daten 19 2.7.4 Bedienbarkeit der Endbenutzerwerkzeuge 20 2.7.5 Risiken außerhalb der Software-Systeme 20 3 Das Data-Warehouse-Konzept 22 3.1 Prozesse und Komponenten des Data-Warehousing 22 3.2 Semantische, multidimensionale Modellierung 25 3.2.1 Plädoyer für die semantische Modellierung multidimensionaler Strukturen 25 3.2.2 Modellierungsebenen 26 3.2.3 Beschreibungselemente multidimensionaler Datenstrukturen 28 3.3 Datenextraktion und -speicherung 38 3.3.1 ETL-Komponente 39 3.3.2 Datenhaltung 41 3.4 Business Intelligence-Anwendungen 47 3.4.1 Business-Intelligence-Werkzeuge 48 3.4.2 Business-Intelligence-Applikationen 51 3.4.3 Pflege und Administration eines Data Warehouse 51 3.4.4 Benutzeradministration 52 3.4.5 Berechtigungskonzeption 53 3.4.6 Monitoring der Basissysteme 54 3.4.7 Monitoring des Datenladeprozesses 56 3.4.8 Archivierung 56 4 Semantische Modellierung multidimensionaler Datenstrukturen mit der Objekttypenmethode 58 4.1 Semantische Modellierung multidimensionaler Datenstrukturen 58 4.2 Das Objekttypenmodell 61 4.3 Multidimensionale Erweiterung der Objekttypenmethode 64 -II- 4.3.1 Modellierung von Beziehungen 64 4.3.2 Beziehungswirkung „Konsolidierung" 66 4.3.3 Dimensionsstrukturen und komplexe Objekttypen 68 4.3.4 Darstellung der Fakten 69 4.3.5 Fallbeispiel 70 4.4 Der Modellierungsprozess 71 4.4.1 Vorgehensmodell der Objekttypenmethode 72 4.4.2 Phasenmodell der Data-Warehouse-Systementwicklung 76 Metadatenmanagement in Data-Warehouse-Systemen 80 5.1 Vom Data Dictionary zum Unternehmensrepository 81 5.2 Klassifikation von Metadaten in Data-Warehouse-Systemen 83 5.2.1 Gliederung nach Verwendung 83 5.2.2 Gliederung nach Herkunft 86 5.2.3 Gliederung nach Funktionen 87 5.2.4 Gliederung nach Gestaltungsprozessen 88 5.2.5 Gliederung nach Perspektiven 89 5.2.6 Gliederung nach der ANSI/SPARC 3-Schema Architektur 90 5.3 Anforderung an ein Data-Warehouse-Repository 94 5.3.1 Software-Engineering-Aspekte 95 5.3.2 Dokumentationsaspekte 102 5.3.3 Marktübersicht 104 Schrittweiser Aufbau eines konzeptionellen Metaschemas für ein Data-Warehouse- System 105 6.1 Rekonstruktion der Sprachebenen eines Repositories 106 6.1.1 Modellierung der Objektdaten 107 6.1.2 Modellierung der Metadaten 110 6.2 Metaschema der Normsprache 113 6.3 Metaschema des methodenneutralen Fachentwurfs 115 6.4 Metaschema des methodenspezifischen Entwurfs der Datenstrukturen eines Data-Warehouse-Systems 117 Terminologiearbeit 123 7.1 Begriffsbildung 124 7.1.1 Begriffe und Begriffsmodell 124 7.1.2 Definitionen: Sinn und Zweck 125 7.1.3 Benennung bzw. Benamung eines Begriffes 126 7.1.4 Definition eines Begriffes 129 7.2 Terminologiemanagement 133 7.2.1 Prinzipien der Terminologiearbeit 133 7.2.2 Ablauforganisation 136 7.2.3 Aufbauorganisation 138 7.2.4 Terminologiemanagement als Querschnittsfunktion 140 7.3 Werkzeugunterstützung bei der Terminologiearbeit 141 7.3.1 Wörterbücher 141 7.3.2 Terminologiedatenbanken 143 7.3.3 Thesaurus 144 7.3.4 Repositories 144
Comment:
1. Gutachter: Rautenstrauch 2. Gutachter: Wrobel 3. Gutachter: Ortner
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modelle und Methoden zur hauptzeitparallelen Bereitstellung von Werkzeugen bei flexiblen Produktionssystemen
Lohmann, Wolfgang
Universität Frankfurt a.M. (2001)
Comment:
1. Gutachter: Mathes 2. Gutachter: Oberweis
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Ordnungsrahmen zur prozessorientierten Organisationsgestaltung. Modelle für das Management komplexer Reorganisationsprojekte
Meise, Volker
Universität Münster (2001)
Abstract:
Prozessmanagement ist eines der meist genannten Schlagwörter, wenn die Sprache auf die Optimierung von Abläufen in Unternehmen kommt. Unter dieser Überschrift findet man eine Vielzahl von einzelnen Ansätzen, welche jeweils ein Teilgebiet mehr oder minder intensiv behandeln. In der Regel fehlt aber eine übergeordnete Verbindung zwischen den Teillösungen. Werden Prozessoptimierungsprojekte dann in der Praxis eingesetzt, stößt man schnell auf weiteres Problem: Durch die Vielzahl an zu betrachtenden Prozessen und deren Vernetzung untereinander erhöht sich die Komplexität auf ein kaum noch zu beherrschendes Maß. Es sind daher Methoden einzusetzen, welche sowohl die Komplexität reduzieren und handhabbar machen als auch durchgängig von den strategischen Überlegungen bei Projektbeginn bis zur endgültigen Implementierung der Prozesse eingesetzt werden können. Volker Meise beschreibt in seinem Buch mit der Konstruktion von Ordnungsrahmen, wie Prozessmanagement-Projekte mit Hilfe der Prozessmodellierung durchgängig strukturiert und durchgeführt werden können. Der Ordnungsrahmen dient dabei als Leitbild, welches die Überlegungen während der Projektphasen verbildlicht und für die Ziele des Projektes steht. Schritt für Schritt werden die einzelnen Phasen von den grundlegenden Strategieentscheidungen über die Kernprozessidentifikation bis zu der Prozessimplementierung beleuchtet. Zudem wird eine Brücke geschlagen zwischen der Prozessoptimierung, die aus Koordinationssicht sinnvoll erscheint und der aus Mitarbeitersicht motivierenden Prozessgestaltung. Beispiele aus einem erfolgreich durchgeführten Praxisprojekt belegen die Umsetzungsnähe der erarbeiteten Vorschläge. Hier liegt ein Werk vor, das die von Schlagworten geprägte Prozessmanagement-Diskussion kritisch hinterfragt und auf der Grundlage realer Erfahrungen eine durchgängige methodische Basis für Reorganisationsprojekte vorschlägt. Der Leser wird verständlich durch die schrittweise aufgebe Argumentation geführt und mit praxistauglichen Vorschlägen für die Umsetzung einer Prozessoptimierung versehen.
Comment:
1. Gutachter: Becker
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Verarbeitung unscharfer Informationen für die fallbasierte Kostenschätzung im Angebotsengineering
Meyer, Silke
TU Chemnitz (2001)
Abstract:
Um marktverträgliche und zugleich betriebswirtschaftlich vertretbare Angebote zu erarbeiten, bedarf es situationsgerechter Informationen bezüglich der zu erwartenden Produktkosten. Es zeigt sich, daß vor allem für die kostenseitige Bewertung komplexer, kundenindividueller Produkte ein Ansatz notwendig ist, der auf prototypisches Erfahrungswissen zurückgreift. Vor diesem Hintergrund wird in der vorliegenden Arbeit die Methodik des fallbasierten Schließens vorgestellt. Im Kern der Analyse greift die Autorin das bisher vernachlässigte Problem einer mangelhaften Informationsbasis auf, wie sie für das Angebotsengineering typisch ist. Sie entwickelt ein Konzept der Informationsrepräsentation, das erlaubt, den Informationsgehalt realer Situationsbeschreibungen realitätsnah abzubilden und fallbasiert auszuwerten. Dieses Konzept wird nicht nur theoretisch fundiert, sondern auch exemplarisch an einem Praxisfall des Textilmaschinenbaus validiert. Gleichzeitig werden mit der Integration in ein Produktdatenmanagementsystem und der Anbindung eines Kosten-Data Warehouse Empfehlungen für die praktische Umsetzung gegeben.
Comment:
1. Gutachter: Stöckert 2. Gutachter: Rommelfanger 3. Gutachter: Bellmann
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Flexibilitätsplanung in Wertschöpfungsnetzwerken
Pipernik, Richard
Universität Frankfurt a.M. (2001)
Abstract:
Der Flexibilitätsplanung in Wertschöpfungsnetzwerken kommt die Aufgabe zu, deren Reaktionsfähigkeit in bezug auf entscheidungsrelevante Einflussgrößen zielgerichtet aufzubauen, aufrechtzuerhalten und zu nutzen. Der Autor entwickelt theoretisch fundierte und praxisnahe Ansätze zur Entwicklung und Implementierung von Methoden und Instrumenten zur Unterstützung der Flexibilitätsplanung. Er stellt dar, wie diese Instrumente in moderne Informations- und Kommunikationssysteme aus dem Bereich des Supply Chain Management integriert werden können.
Comment:
1. Gutachter: Isermann 2. Gutachter: König
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Integrierte Rendite-/Risiskosteuerung auf Basis standatisierter Informationssysteme
Reitwiesner, Bernd
Universität Augsburg (2001)
Comment:
1. Gutachter: Buhl
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Referenzmodellierung für die Handelslogistik
Remmert, Jan
Universität Köln (2001)
Abstract:
Logistikprozesse müssen dem Gestaltungspotenzial der Informationstechnologie entsprechend entworfen und implementiert werden, wenn sie den spezifischen Anforderungen von Unternehmen und deren Umwelt gerecht werden wollen. Auf der Basis einer systematischen Analyse der informationstechnischen und betriebswirtschaftlichen Rahmenbedingungen und Parameter zur Gestaltung von Logistikprozessen im Lebensmitteleinzelhandel entwickelt Jan Remmert ein umfassendes Konzept für die deduktiv ausgerichtete Modellierung von Transferprozessen, das Allgemeingültigkeit und Übertragbarkeit mit Anwendbarkeit kombiniert. Operationale Gestaltungsansätze für die Handelslogistik runden die Arbeit ab
Comment:
1. Gutachter: Delfmann 2. Gutachter: Mellis
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Objektorientierte Systemgestaltung: ein kommunikationsbasierter Ansatz zwischen Kognition und Konstruktion
Ricken, Michael
Universität Bochum (2001)
Abstract:
Objektorientierte Methoden und Technologien haben sich in den letzten Jahren in Wissenschaft und Praxis etabliert. Sie sind jedoch keine Garantie für qualitativ hochwertige, mehrfach verwendbare und ökonomisch wirksame Systeme. Ausgehend von den technischen und kognitiven Ursprüngen der Objektorientierung begründet Michael Ricken in einer ganzheitlichen Sichtweise auf der wissenschaftlichen Basis des radikalen Konstruktivismus eine kommunikationsbasierte Gestaltungssicht der objektorientierten Modellierung. Auf der Basis des fachunabhängigen objektorientierten Denkens und fachbezogener Leitbilder werden kommunizierte objektorientierte Modelle zur Harmonisierung der individuellen Sicht der an einem Gestaltungsvorhaben Beteiligten eingesetzt. Anschliessend erarbeitet der Autor ein objektorientiertes Analysemuster, das die Divergenz von kognitiven und konstruktionsökonomisch orientierten Strukturen berücksichtigt.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Informationsverhalten und Involvement im Internet
Roßmanith, Tilo
Universität Karlsruhe (2001)
Abstract:
Das Internet, das bis vor wenigen Jahren noch ein weitgehend unbekanntes Schattendasein fristete und in erster Linie durch Hochschulen genutzt wurde, hat sich mittlerweile zu einem Medium entwickelt, das auch kommerziell von einem immer größeren Anteil der Bevölkerung genutzt wird. Das Netzwerk bildet dabei einen riesigen Fundus an Informationen zu sämtlichen vorstellbaren Themengebieten, die zu großer Zahl kostenlos von jedem Punkt der Welt abgerufen werden können. Die Nutzung des Internets erfolgt dabei aus den unterschiedlichsten Motiven. Viele Menschen nutzen das neue Medium zum Zeitvertreib, andere sind auf der gezielten Suche nach Informationen zu bestimmten Themengebieten, während wiederum andere Nutzer konkretes Interesse am Kauf angebotener Produkte zeigen. Über Suchmaschinen, Links auf anderen Webseiten, oder durch andere Verweise gelangen somit Internetnutzer aus einer Vielzahl von Gründen bei der Informationsabfrage im Internet auf Seiten kommerzieller Betreiber. Im Gegensatz zu den traditionellen Massenmedien, wie etwa dem Fernsehen und den Printmedien, gestatten die technischen Rahmenbedingungen des Internets die direkte, dialogorientierte Kommunikation mit dem einzelnen Benutzer. Bei geeigneter Programmierung ist ein Webserver in der Lage, individuell auf die einzelnen Datenabfragen der Besucher zu reagieren, wobei die Reaktionen den Wünschen und Bedürfnissen des Einzelbesuchers angepaßt werden können, um somit beispielsweise die werbliche Kommunikation zu optimieren. Zudem werden die Betreiber von Websites mit hohem Bekanntheitsgrad mit einer sehr hohen Anzahl an Besuchern konfrontiert. Diese bleiben zunächst einmal anonym, da das Internet keine direkte Zuordnung der Teilnehmerdaten zu den zugehörigen soziographischen Daten, also beispielsweise Name und Adresse, gestattet. Da die Besucher bei kommerziellen Websites in vielen Fällen auch potentielle Interessenten darstellen, wird häufig versucht, nähere Informationen über die Besucher zu erhalten. Dies geschieht beispielsweise über die Teilnahme an Gewinnspielen, oder die Eintragung in Mailinglisten, bei der die Besucher ihre Adresse erfassen. Hierbei kann es wiederum zu einer Vielzahl registrierter Adressen kommen, die im Rahmen marketingtechnischer Maßnahmen durch Offline-Vertriebsmaßnahmen betreut werden.
Comment:
1. Gutachter: Neibecker 2. Gutachter: Stucky
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Virtualisierung von wirtschaftswissenschaftlichen Lehr- und Lernsituationen : Konzeption eines application framework
Schmitz, Klaus
Universität Bamberg (2001)
Abstract:
Durch die Möglichkeiten der Informations- und Kommunikationstechnologien und die Forderungen nach individueller und stetiger Qualifikation vermehren sich Forschungen und Veröffentlichungen rund um das Thema E-Learning. In der vorliegenden Veröffentlichung stellt sich der Autor das Ziel, einen Software-Framework zur Realisierung von virtuellen Lernumgebungen zu konzipieren und damit eine Beitrag zur Steigerung der Effektivität und Effizienz von Lehr- und Lernprozessen zu leisten. Die Arbeit gliedert sich in sieben Kapitel. Nach der Einleitung und Beschreibung der Zielstellung im ersten Kapitel widmet sich das zweite Kapitel im Wesentlichen den für das Verständnis der Arbeit notwendigen Grundlagen z. B. zur System- und Modelltheorie sowie zur Methodik des Semantischen Objektmodells (SOM) zur Geschäftsprozessmodellierung. Da dieses Grundlagenkapitel weitgehend kontextfrei verfasst wurde, kann der eher an den Ausführungen zu Lehr- und Lernsituationen bzw. an der Konzipierung von Lernumgehungen interessierte Leser, diese Ausführungen überspringen. Wer sich allerdings mit Modellen, Simulationen oder der Modellierung betrieblicher Systeme beschäftigt, findet dort umfangreiche Literatur-auswertungen sowie eine komplexe Betrachtung zur Modelltheorie. Gegenstand des dritten Kapitels ist die sehr ausführliche Darstellung der Lehr- und Lernsituationen in ihren Ausprägungen aus didaktischer Sicht. Neben Lernvoraussetzungen, -zielen, -formen, -phasen, -medien, -situationen werden auch Lehr- und Lernverfahren sowie die Veranstaltungstypen an wirtschaftswissenschaftlichen Fakultäten beschrieben. Voraussetzung für die Virtualisierung von Lernsystemen ist nach Ansicht des Autors die Modellierung der Lehr- und Lernprozesse, die er auf der Basis der Erkenntnisse der Geschäftsprozessmodellierung im nachfolgenden Abschnitt vornimmt. Im fünften Kapitel stellt er sowohl die zeitpunktbezogenen Lernformen Vorratslernen (Learning in Advance) und Lernen bei Bedarf (Learning on Demand) als auch die zugehörigen Serviceprozesse wie Vorratslehren (Teaching in Advance) und Lehren bei Bedarf (Teaching an Demand) dar und weist nach, dass die herkömmlichen Präsenzveranstaltungen für ein Learning on Demand nicht geeignet sind. Daher untersucht er das Effektivitäts- und Effizienzpotential virtueller Lernsysteme und leitet fachliche und softwaretechnische Anforderungen für die Gestaltung eines Application Framework zur Realisierung virtueller Lernangebote ab. In Kapitel sechs beschreibt der Autor die Konzeption und Konstruktion des selbst entwickelten Framework. In der abschließenden zusammenfassenden Bewertung verweist er u. a. auf die Erfahrungen beim Einsatz des Framework im Rahmen der Virtuellen Hochschule Bayern (VHB). Fazit: Die vorliegende Arbeit bietet einen strukturierten und umfassenden Einblick in die Theorie wirtschaftswissenschaftlicher Lehr- und Lernsituationen und ist daher als Überblick auf diesem Gebiet sehr gut geeignet. Praktiker werden es dagegen schwer haben, sich durch die umfangreichen theoretischen Ausführungen zu den Kernen der Arbeit durchzuarbeiten.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Komponentenorientierte Softwareentwicklung in Softwareunternehmen: Konzeption eines Vorgehensmodells zur Einführung und Etablierung
Schryen, Guido
RWTH Aachen (2001)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Mechanismen des Marktes für beratungsintensive ERP-Software - Theoretischer Ansatz zur Untersuchung der Dominanz der SAP im Markt für beratungsintensive ERP-Software
Schröter, Marcus
Universität Köln (2001)
Abstract:
Inhaltsverzeichnis: Inhalt 1 Gegenstand und Konzept der Arbeit 1 1.1 Ausgangssituation 1 1.2 Zielsetzung 4 1.3 Vorgehensweise 7 2 Grundlagen beratungsintensiver ERP-Software 9 2.1 Technische Grundlagen betrieblicher Anwendungssoflware 9 2.1.1 Abgrenzung der Begriffe Hardware und Software 9 2.1.2 Klassifikation von Software nach ihrer Hardwarenähe 10 2.1.2.1 Systemsoftware 10 2.1.2.2 Systemnahe Software 11 2.1.2.3 Anwendungssoftware 12 2.1.3 Softwarearchitekturen 13 2.1.4 Systemarchitekturen und Konzepte der verteilten Verarbeitung 16 2.1.5 System-und Anwendungsplattformen 18 2.2 Grundlagen betrieblicher Anwendungssoftware aus organisatorischer Perspektive 19 2.2.1 Einbettung betrieblicher Anwendungssysteme in den organisatorischen Kontext einer Unternehmung 20 2.2.2 Business Process Redesign 20 2.2.3 Widerstände gegen das Business Process Redesign und die Einführung soflwaretechnischer Innovationen 21 2.3 Integration von Anwendungssystemen 23 2.3.1 Innerbetriebliche Integration 23 2.3.2 Zwischenbetriebliche Integration 24 2.4 Entwicklung von Software 26 2.4.1 Individuelle Entwicklung von Software 27 2.4.2 Entwicklung von Standardanwendungssoftware 30 2.4.2.1 Allroundanwendungen 31 2.4.2.2 Software für fachliche Aufgabenstellungen 31 2.4.3 Customizing 33 2.4.4 Softwarelebenszyklus und Wartung von Software 35 2.5 Beratungsintensive ERP-Software 40 IV Gedanklicher Bezugsrahmen zur Diskussion von Marktstrukturen und Marketingstrategien im Markt für beratungsintensive ERP-Software 42 3.1 Abgrenzung marktbezogener Begriffe 42 3.1.1 Markt und Marktabgrenzung in der Literatur 42 3.1.2 Marktsegmentierung 45 3.1.3 Marktpotential, Marktvolumen und Marktanteile als Ausdruck der Struktur eines Marktes 46 3.2 Abgrenzung des Marktes für beratungsintensive ERP-Software 49 3.2.1 Abgrenzung der Leistungskomponente 49 3.2.2 Abgrenzung der Nachfragerkomponente und Ansätze zur Marktsegmentierung 50 3.2.2.1 Unternehmensgröße 50 3.2.2.2 Verwendete Systemplattformen 52 3.2.2.3 Branchenherkunft 53 3.2.2.4 Nationalität 53 3.2.3 Abgrenzung der Anbieterkomponente 54 3.2.4 Zusammenfassung 55 3.3 Gedanklicher Bezugsrahmen zur Diskussion von Marketingstrategien von Anbietern beratungsintensiver ERP- Software 55 3.3.1 Zum Begriff strategischer Unternehmensführung 55 3.3.2 Zum Marketingbegriff 57 3.3.3 Einordnung und Aufgaben der Marketingstrategie im Kontext der strategischen Unternehmensführung 58 3.3.4 Begriffliche Abgrenzung des absatzpolitischen Instrumentariums 59 3.3.5 Zusammenfassende Abgrenzung des Verständnisses vom strategischen Marketing im Rahmen dieser Arbeit 61 4 Organisationsindividuelles Entscheidungsverhalten bei der Adoption einer beratungsintensiven ERP-Lösung 62 4.1 Zum Adoptionsbegriff 63 4.2 Entscheidungstheoretischer Bezugsrahmen 65 4.3 Ziele und Präferenzen der Entscheider 67 4.3.1 Langfristige Profltabilität einer ERP-Lösung als Fundamentalziel der Entscheidungssituation 70 4.3.2 Fundamentale Nutzenziele 72 4.3.2.1 Funktionale Produktziele 74 4.3.2.1.1 Funktionale Breite (Integrationsgrad) und Tiefe 74 4.3.2.1.2 Qualität des der ERP-Software zu Grunde liegenden Geschäftsprozessmodells 75 4.3.2.1.3 Organisatorische Kompatibilität 75 4.3.2.1.3.1 Organisatorische Kompatibilität durch softwaretechnische Anpassungsfähigkeit 77 4.3.2.1.3.2 Organisatorische Kompatibilität durch funktionale Produktspezialisierungen 78 V 4.3.2.2 Nicht-funktionale Produktziele 78 4.3.2.2.1 Technische Kompatibilität 79 4.3.2.2.1.1 Kompatibilität zu Systemplattformen 80 4.3.2.2.1.2 Kompatibilität zu sonstiger Anwendungssoftware 81 4.3.2.2.1.3 Fähigkeit zur zwischenbetrieblichen Integration 81 4.3.2.2.2 Service Levels 82 4.3.2.2.3 Benutzerfreundlichkeit 82 4.3.2.2.4 Sicherheit und Zugriffsbeschränkungen 84 4.3.2.3 Dienstleistungsziele 85 4.3.2.3.1 Verfügbarkeit 85 4.3.2.3.2 Qualität 86 4.3.2.4 Anbieterziele 86 4.3.2.4.1 Potential für die Weiterentwicklung der Produkte 86 4.3.2.4.2 Dominierende Marktstellung 87 4.3.2.4.3 Reputation 88 4.3.2.5 Zeitziele 88 4.3.3 Fundamentale Kostenziele 89 4.3.3.1 Softwarekosten 91 4.3.3.2 Hardwarekosten 91 4.3.3.3 Einführungskosten 92 4.3.3.4 Betriebs- und Wartungskosten 94 4.3.4 Exkurs: Probleme der Bewertung der wirtschaftlichen Konsequenzen bei der Beschaffung einer beratungsintensiven ERP-Lösung 94 4.4 Umwelteinflüsse und Risiken 96 4.4.1 Zum Begriff des Risikos 96 4.4.2 Risikokonstituierende Merkmale der betrachteten Entscheidungssituation 99 4.4.2.1 Softwarespezifische Probleme 99 4.4.2.2 Systemplattformrisiken 103 4.4.2.3 Schwindende Marktbedeutung eines Anbieters 106 4.4.2.4 Informationsasymmetrien zwischen Anbieter und potentiellem Adopter 106 4.4.2.4.1 Grundlagen der Principal-Agent-Theorie 106 4.4.2.4.2 Systematisierungsansätze für Konstellationen mit asymmetrischer Informationsverteilung 109 4.4.2.4.3 Einduss des Kaufanlasses auf die Informationsasymmetrie 114 4.4.3 Einduss empfundener Risiken auf das Entscheidungsverhalten potentieller Adopter einer beratungsintensiven ERP-Lösung 115 4.5 Mögliche Ausprägungen der Entscheidung 115 VI Modell der Mechanismen des Marktes für beratungsintensive ERP-Software 118 5.1 Diskontinuierliche Marktinnovationen und technologische Paradigmenwechsel 120 5.2 Etablierung eines dominanten Designs im Markt für beratungsintensive ERP-Software 123 5.2.1 Spezielle Probleme und spezielle Chancen der frühen Adopter einer marktneuen ERP-Lösung 125 5.2.2 Spezielle Probleme der Anbieter bei der Etablierung eines dominanten Designs im Markt für ERP-Software 129 5.2.3 Ausgesuchte Elemente des strategischen Marketings von Anbietern beratungsintensiver ERP-Software mit Einfiuss auf die Etablierung eines dominanten Designs 130 5.2.3.1 Technologie-und Innovationsstrategie 130 5.2.3.1.1 Strategische Grundhaltung 131 5.2.3.1.2 Strategie des Markteintrittszeitpunktes 135 5.2.3.1.2.1 Vorteile des Pioniers 136 5.2.3.1.2.2 Nachteile des Pioniers 138 5.2.3.1.3 Strategie der Entwicklung eines überragenden Produktes 141 5.2.3.1.4 Strategie der unbefristeten Innovation 142 5.2.3.2 Strategie der Standardproduktentwicklung 144 5.2.3.3 Strategien zur Verbesserung der Leistungstransparenz 146 5.3 Positive Feedbackmechanismen des Marktes für beratungsintensive ERP-Software 147 5.3.1 Relevanz steiler Stückkostendegression und fehlender Wachstumsrestriktionen im Markt für beratungsintensive ERP-Software 148 5.3.1.1 Fehlende anbieterseitige Restriktionen und steile Stückkostendegression bei der Entwicklung von Standardsoftware 148 5.3.1.2 Wachstumsrestriktionen und mäßige Kostendegression bei Dienstleistungsprojekten und Implikationen für das Produktgeschäft 151 5.3.2 Wirkung positiver Feedbackmechanismen auf die Komponenten der Beschaffungsentscheidung potentieller Adopter 153 5.3.3 Positive Feedbackmechanismen induziert durch Elemente des strategischen Marketings 155 5.3.3.1 Positive Feedbackmechanismen induziert durch die strategische Produktpolitik 155 5.3.3.1.1 Verbesserung bestehender Produktkomponenten 160 5.3.3.1.1.1 Verbesserung der funktionalen Tiefe 160 5.3.3.1.1.2 Verbesserung des zu Grunde liegenden Geschäflsprozessmodells 160 5.3.3.1.1.3 Verbesserung der Service Levels 160 5.3.3.1.1.4 Verbesserung der Benutzerfreundlichkeit 161 5.3.3.1.1.5 Verbesserung der Sicherheit und von Zugriffsbeschränkungen 162 5.3.3.1.2 Ausweitung der funktionalen Breite 162 5.3.3.1.3 Entwicklung funktionaler Spezialisierungen 162 5.3.3.1.4 Internationalisierungsstrategie 163 5.3.3.1.5 Ausweitung der Kompatibilität zu Systemplattformen 164 5.3.3.1.6 Strategie einer offenen Softwarearchitektur 164 5.3.3.2 Positive Feedbackmechanismen induziert durch Unternehmensakquisitionen 167 5.3.3.3 Positive Feedbackmechanismen induziert durch indirekte Distribution 168 VII 5.3.3.4 Positive Feedbackmechanismen induziert durch kontinuierliche Verbesserung der Dienstleistungskomponenten 170 5.3.4 Autonome positive Feedbackmechanismen 172 5.3.4.1 Verbesserung der Leistungstransparenz 173 5.3.4.2 Abnahme systemplattforminduzierter Risiken 174 5.3.4.3 Verbesserung der interorganisatorischen Kompatibilität 176 5.3.4.4 Erlangung eines psychologischen Vorteils 177 5.3.4.5 Verbesserung der Wahrscheinlichkeit des Fortbestehens des Anbieters 178 5.3.5 „Anbieter-Shake-out" als Folge positiver Feedbackmechanismen 179 5.4 Lock-in-Effekte 181 5.4.1 Lock-in-Effekte innerhalb technologischer Paradigmen 183 5.4.1.1 Wirkung von Bindungseffekten innerhalb technologischer Paradigmen 184 5.4.1.1.1 Technische Bindungseffekte 185 5.4.1.1.2 Organisatorische Bindungseffekte 186 5.4.1.1.3 Psychologische Bindungseffekte 187 5.4.1.2 Ansatz der Nutzentheorie als Erklärung für Lock-in-Effekte innerhalb technologischer Paradigmen 188 5.4.1.3 Marketingstrategische Maßnahmen des In-Suppliers zur Verstärkung von Lock-in-Effekten innerhalb technologischer Paradigmen 192 5.4.2 Lock-in-Effekte innerhalb des Wechsels technologischer Paradigmen 193 5.4.2.1 Wirkung von Bindungseffekten im Rahmen technologischer Paradigmenwechsel 194 5.4.2.1.1 Technische Bindung 194 5.4.2.1.2 Organisatorische Bindung 194 5.4.2.1.3 Psychologische Bindung 195 5.4.2.2 Ansatz der Nutzentheorie als Erklärung für die Verbesserung der Wettbewerbssituation des Out- Suppliers im Rahmen technologischer Paradigmenwechsel 196 5.4.2.3 Strategische Maßnahmen des In-Suppliers zur Nutzbarmachung von Lock-in-Effekten innerhalb technologischer Paradigmenwechsel 196 6 Validierung des Modells der Mechanismen des Marktes für beratungsintensive ERP-Software 198 6.1 Vorgehensweise und Einschränkungen 198 6.2 Struktur des deutschen Marktes für beratungsintensive ERP-Lösungen 200 6.3 Wachstum der SAP 204 6.4 Exkurs: Entstehung des Softwaremarktes 206 6.5 Diskontinuierliche Marktinnovationen und technologische Paradigmenwechsel im deutschen Markt für beratungsintensive ERP-Software 206 6.6 Beschreibung ausgewählter Elemente der Marketingstrategie der SAP mit Einfluss auf die Etablierung dominanter Designs 208 6.6.1 Technologie- und Innovationsstrategie 208 6.6.2 Strategie der Standardproduktentwicklung 211 6.6.3 Strategien zur Verbesserung der Leistungstransparenz 213 VIII 6.7 Beschreibung ausgewählter Elemente des strategischen Marketings der SAP mit Einfluss auf die Realisierung positiver Feedbackmechanismen 215 6.7.1 Strategische Produktpolitik 215 6.7.1.1 Kontinuierliche Verbesserung bestehender Produktkomponenten 215 6.7.1.2 Ausweitung der funktionalen Breite 217 6.7.1.3 Entwicklung funktionaler Spezialisierungen 218 6.7.1.4 Intemationalisierung 220 6.7.1.5 Ausweitung der Kompatibilität zu Systemplattformen 222 6.7.1.6 Strategie einer offenen Softwarearchitektur 224 6.7.2 Akquisitionsstrategie 225 6.7.3 Indirekte Distribution 226 6.8 Elemente des strategischen Marketings zur Übertragung von Lock-in-Effekten im Rahmen eines Paradigmenwechsels 228 6.9 Exkurs: Schwäche der SAP im Markt für beratungsarme ERP-Software 229 7 Fazit der Arbeit
Comment:
1. Gutachter: Mellis 2. Gutachter: Seibt
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Grundlagen der wissensbasierten Konstruktion von Modellen betrieblicher Systeme
Schulze, Dirk
RWTH Aachen (2001)
Abstract:
Modelle stellen wichtige Hilfsmittel zur Analyse und Gestaltung betrieblicher Systeme dar. Neben der Unterstützung des Sachziels der Modellierung durch Modellierungsansatz und Vorgehensmodell tritt zunehmend das Formalziel der Wiederverwendung von Modellienmgsergebnissen in den Vordergrund. Die Qualität von Modellen kann durch die Nutzung von bereits existierendem Modellierungswissen deutlich verbessert werden. Dieses Modellierungswissen ist implizit in vorhandenen Modellen enthalten. Zur Nutzung dieses Modellierungswissens für die Konstruktion neuer Modelle muß aus vorhandenen Modellen das Wissen extrahiert werden und in wiederverwendbarer Form bereitgestellt werden. Der Autor entwickelt einen Wissensrepräsentationsansatz zur Repräsentation von in Modellen enthaltenem Modellierungswissen. Weiterhin wird ein Vorgehen entwickelt, das mit Hilfe der entwickelten Wissensrepräsentationsform eine maschinelle Wiederverwendung des Modellierungswissens für die Konstruktion neuer Modelle ermöglicht. Der Wissensrepräsentationsansatz wird zunächst methodenunabhängig beschrieben und anschließend für eine Modellierungsmethodik - das Semantische Objektmodell (SO.M) nach Ferstl/Sinz spezialisiert. Die Grundidee des Lösungsansatzes zur Wissenrepräsentation liegt in der Nutzung von Patterns als generische, wiederverwendbare Bausteine für die Konstruktion von Modellen. Entwickelt wird eine formale Sprache zur Repräsentation von Modellen und Entwurfsoperatoren zur Konstruktion von Modellen. Als Grundlage für die Repräsentation von Modellen und Entwurfsoperatoren dient die Prädikatenlogik. Die Wiederverwendung erfolgt mit Hilfe von wissensbasierten Ansätzen aus dem Bereich des Case-Based Reasoning.
Comment:
1. Gutachter: Sinz (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Internetportal für eine virtuelle Hochschule
Schäfer, Klaus J.
Universität Regensburg (2001)
Abstract:
Die neuen Medientechnologien entwickeln sich zusammen mit ihrer Infrastruktur, dem Internet, zur zentralen Grundlage von Transaktionen, die Informationen, Dienstleistungen und Warenaustausch betreffen. Auch den Hochschulen bieten sich dadurch neue Perspektiven, da Teleteaching und Learning on Demand orts- und zeitunabhängiges Lernen ermöglichen. Am Beispiel der Virtuellen Hochschule Regensburg beschreibt Klaus J. Schäfer Konzeption und Entwicklung eines Internetportals, das den Zugang zu neuen Lehr- und Lernformen ermöglicht. Technische Voraussetzungen, Umfeld sowie Verständnis und Formen des Teleteaching werden detailliert analysiert. Anschließend präsentiert der Autor die konkrete Konzeption und demonstriert die programmiertechnische Umsetzung des Portals.
Comment:
1. Gutachter: Lehner (?)
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Einsatz intelligenter Agenten zur Entscheidunsunterstützung in prozessorientierten Unternehmen
Schönfeldt, Björn
Universität Mannheim (2001)
Comment:
1. Gutachter: Niedereichholz 2. Gutachter: Schader
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Geschäftsprozessorientierte Datenmodellierung - Referenz-Vorgehensmodell zur fachkonzeptionellen Modellierung von Informationsstrukturen
Speck, Mario C.
Universität Münster (2001)
Abstract:
Der Autor Mario C. Speck stellt in seinem Buch erstmals ein Referenzmodell mit konkreten Handlungsempfehlungen zur Konstruktion von semantischen und konzeptionellen Datenmodellen vor. Denn die zentrale Frage der Konstruktion von Datenmodellen ist, wie systematisch von den Fachlichen Anforderungen zu gültigen, klaren und umsetzbaren Datenmodellen gelangt werden kann. In der einschlägigen Literatur und den Tool-Handbüchern finden sich dazu jedoch nur vereinzelt konkrete Hinweise. Diese basieren auf den Methoden der Geschäftsprozessmodellierung und berücksichtigen deren Konzepte und Handlungsanleitungen. Speziell geschlossene Handlungsanleitungen existierten bislang nicht. Das Referenz-Vorgehensmodell des Autors erfüllt zwei Forderungen: Erstens gibt es eine problem- und vorgehensorientierte Anleitung, die komplexe Konstruktionsaufgabe der Datenmodellierung in weniger komplexe Teilaufgaben zu zerlegen. Zweitens macht es auf Qualitätsanforderungen an Datenmodelle aufmerksam und zeigt, wie man diesen gerecht werden kann. Dazu bietet der Autor ein Metamodell an, dass; neben der Geschäftsprozessmodellierung und der klassischen Modellierung auch neuere Konzepte zur multidimensionalen Datenmodellierung berücksichtigt. Die Ergebnisse dieser Analysen begründen die Empfehlungen in dem neuen Vorgehensmodell, sowie die Nutzung spezifischer Sprachen und Sprachkonventionen.
Comment:
1. Gutachter: Becker 2. Gutachter: Vossen
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Methoden der Dokumenten-Allokation zur rechnergestützten asynchronen Zusammenarbeit bei eingeschränkter Kommunikation
Stemper, Henning
Universität Rostock (2001)
Abstract:
Dokumentengruppierung , Dokumentenallokation , Asynchrone Zusammenarbeit , Eingeschränkte Kommunikation
Comment:
1. Gutachter: Röck 2. Gutachter: Berten
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Kommunikation auf internationalen Kapitalmärkten -Eine informationsökonomische Analyse unter besonderer Berücksichtigung international heterogener Jahresabschlüsse
Stubenrath, Michael
Universität Frankfurt a.M. (2001)
Abstract:
Die Kommunikation auf internationalen Kapitalmärkten wird durch Probleme beim Informationsaustausch und insbesondere durch international heterogene Jahresabschlüsse erheblich erschwert. Dieser Problematik widmet sich die vorliegende Arbeit mit einer informationsökonomischen Analyse. Im Zentrum der Analyse stehen Unternehmen, Investoren, Finanzanalysten und Nachrichtenagenturen. Es wird zunächst die - bisher nur in Teilbereichen erforschte - Kommunikation auf Kapitalmärkten einschließlich der relevanten inhaltlichen und technischen Kommunikationsstandards umfassend aufgearbeitet. Hierauf aufbauend werden die Internationalisierung der Kapitalmärkte kritisch thematisiert, die mit der Internationalisierung verbundenen Kommunikationsprobleme herausgearbeitet und die Reaktionen bzw. Reaktionsmöglichkeiten der einzelnen Akteure auf die Kommunikationsprobleme diskutiert. Die Arbeit mündet in einer informationsökonomischen Modellierung, mit der die Wahl alternativer Informationsstrukturen durch Finanzanalysten für Zwecke der internationalen Kapitalanlageentscheidung erklärt werden kann. Die Arbeit leistet sowohl durch die Aktualität ihrer Themenstellung als auch durch ihren kontinuierlichen Praxisbezug einen wertvollen Beitrag zur Theorie und zum Verständnis der Internationalisierung der Kapitalmärkte. Besondere Relevanz besitzen ihre Erkenntnisse für die Bereiche Finanzanalyse, Fondsmanagement und Investor Relations.
Comment:
1. Gutachter: König 2. Gutachter: Mellwig
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Internes Rechnungswesen zur Unterstützung der Führung in Unternehmennetzwerken
Veil, Tim
Universität Göttingen (2001)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Organisation von Konzerneinführungen durch Adaption von Standardsoftwarebibliotheken - Ein Vorgehensmodell zur toolunterstützten Implementierung von Standardanwendungssoftware in Konzernunternehmen
Walz, Wolfgang
Universität Würzburg (2001)
Comment:
1. Gutachter: Thome 2. Gutachter: Schoop
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Modeling Software Markets - Empirical Analysis, Network Simulations, and Marketing Implications
Von Westarp, Falk
Universität Frankfurt a.M. (2001)
Abstract:
This book identifies the relevant determinants of modern software markets, and incorporates these in a simulation model that provides the basis for an integrated theory of software markets. The novel approach overcomes the deficiencies of existing approaches such as Network Effect Theory or Models of Network Diffusion, which do not sufficiently explain the phenomena of modern software markets. Here, the focus is on software for data manipulation, storage, and/or transmission in the corporate world. Based on a study of the largest 1000 German and US companies, the author presents a comparative analysis of the market for enterprise resource planning systems, Electronic Data Interchange (EDI) solutions, and office communication applications. By integrating empirical, theoretical and simulation results von Westarp provides buyers and sellers of software products with valuable and insightful managerial advice.
Comment:
1. Gutachter: König
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Konzeption eines Mangementsystems für die Nutzung von internen sowie externen Wissen zur Generierung von Innovationen
Wissel, Gerald
Universität Göttingen (2001)
Comment:
1. Gutachter: Biethan (?)
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Wissenschaftstheoretische und fachmethodische Grundlagen der Konstruktion von generischen Referenzmodellen betrieblicher Systeme
Wolf, Stefan
Universität Bamberg (2001)
Comment:
1. Gutachter: Sinz 2. Gutachter: Ferstl
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Die Wirtschaftlichkeit von Internet-Telefonie-Basis-Diensten
Zehl, André
Universität Koblenz-Landau (2001)
Abstract:
Die Wirtschaftlichkeit von Internet-Telefonie-Netzwerken stellt trotz des großen Interesses für Internet-Telefonie in der Öffentlichkeit und vielfältigen Titulierungen als "Billig-Telefonie" oder "kostenloses Telefonieren" gegenwärtig immer noch ein kaum untersuchtes Forschungsgebiet dar. Diese Arbeit entwickelt eine Systematik zu Geschäftsmodellen der Internet-Telefonie und untersucht die Wirtschaftlichkeit von Gateway-vermittelter Telefon-zu-Telefon Sprachübertragung im Internet, sowie von zukünftigen IP-Telefon-basierten Internet-Telefonie-Netzwerken. In einem Bottom-Up-Ansatz wird ein technisches Modell für die Kostenbetrachtung von Internet-Telefonie-Netzwerken entwickelt. In einem Top-Down-Ansatz wird ein Modell für die Preisentwicklung der Internet-Telefonie erarbeitet. Es werden Kriterien für die Wirtschaftlichkeit von Internet-Telefonie-Netzwerken vorgestellt und anhand einer empirischen Analyse von Tarifsystemen werden Aussagen über den gegenwärtigen Stand der Wirtschaftlichkeit von Internet-Telefonie-Basis-Diensten getroffen, sowie erkennbare Entwicklungslinien der Wirtschaftlichkeit analysiert.
Comment:
1. Gutachter: Hampe 2. Gutachter: Steigner
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Multimedia-Fallstudien in der betriebswirtschaftlichen Aus- und Weiterbildung : Konzeption und empirische Untersuchung
Bolz, André
Universität Köln (2002)
Abstract:
Die Verbesserung von Aus- und Weiterbildungsmaßnahmen mit Hilfe von Informations- und Kommunikationstechnologien (IKT) wird schon seit längerem unter dem Begriff „E-Learning“ intensiv diskutiert. Erfahrungen aus Entwicklungsprojekten zeigen jedoch, daß die Gestaltung solcher Maßnahmen häufig nur ungenügend durch methodisch-didaktische Überlegungen fundiert wird. Auch in der Literatur finden sich nur wenige Beiträge, die sich mit den Nutzenpotentialen von IKT für bestimmte Lernmethoden befassen und dabei gezielt Technik- und Didaktikaspekte integrieren. Diese Arbeit verfolgt das Ziel, Entwicklungspotentiale der Fallstudienmethode in der betriebswirtschaftlichen Aus- und Weiterbildung aufzuzeigen, indem systematisch die Einsatzmöglichkeiten von IKT für die Gestaltung von Fallstudien und fallstudienbasierten Lernprozessen dargestellt und untersucht werden. Dafür wird ein konzeptioneller Bezugsrahmen entwickelt, in dem mögliche Gestaltungsbereiche und Einflußfaktoren bei der Anwendung und Entwicklung von Multimedia-Fallstudien beschrieben und mit Hilfe von Experteninterviews auf Praxis-Ebene reflektiert werden. Das Vorgehen zeichnet sich dabei durch einen stark interdisziplinären Forschungsansatz aus, der sowohl technische und ökonomische als auch pädagogische und lernpsychologische Forschungsaspekte in ein umfassendes Untersuchungskonzept integriert. Die Wirkungen des Einsatzes von Multimedia-Fallstudien im realen Lernumfeld werden anschließend im Rahmen von zwei Fallstudienseminaren an der Universität zu Köln evaluiert. Die Evaluation umfaßt neben der Untersuchung unterschiedlicher multimedialer Gestaltungsansätze auch die Analyse der Rahmenbedingungen und der Organisation fallstudien-basierter Lernprozesse. Die dadurch gewonnenen Forschungsergebnisse werden genutzt, um konkrete Gestaltungs- und Anwendungsempfehlungen für Multimedia-Fallstudien abzuleiten. Die Arbeit vermittelt dem Leser einen detaillierten Einblick in Gestaltungsalternativen und Einflußfaktoren, die bei der Anwendung und Entwicklung von Multimedia-Fallstudien berücksichtigt werden müssen. Aufgrund ihres hohen Praxisbezuges bietet die Arbeit zudem praktische Entscheidungsunterstützung für Entwickler von Multimedia-Fallstudien und Verantwortliche von Bildungsmaßnahmen, die den Einsatz von IKT in fallstudienbasierten Lernprozessen planen und durchführen.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Controlling für Medienunternehmen im Online-Markt
Böning-Spohr, Patricia
Universität Göttingen (2002)
Comment:
1. Gutachter: Schumann 2. Gutachter: Hess
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Logische Modellierung mehrdimensionaler Datenbanksysteme
Hahne, Michael
Universität Bochum (2002)
Abstract:
Eine charakteristische Eigenschaft von Data Warehouse- bzw. OLAP-Systemen ist die Mehrdimensionalität. Sie stellt eine besondere Herausforderung an die Entwickler der Systeme, denn ihre Leistungsfähigkeit und ihre erfolgreiche Nutzung werden durch die Modellierung bestimmt. Mehrdimensionale Daten benötigen problemadäquate Datenbanktechnologien zur dauerhaften Speicherung. Michael Hahne setzt sich mit dem theoretischen Fundament zum Aufbau mehrdimensionaler Datenbanksysteme auseinander. Er analysiert und bewertet den in der Praxis häufig genutzten relationalen Ansatz des Star Schemas und seiner Varianten und entwickelt ein eigenes logisches mehrdimensionales Datenmodell. Dieses positioniert er als zentrale Komponente im gesamten Modellierungskontext und als Ausgangspunkt zur Modell-Generierung in verschiedenen Zielsystemen.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
DV-gestützte Jahresabschlussanalyse - Möglichkeiten und Grenzen beim Einsatz computergestützter Verfahren zur Analyse und Bewertung von Jahresabschlüssen
Heimann, Jochen
Universität Göttingen (2002)
Comment:
1. Gutachter: Schumann 2. Gutachter: Biethahn
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Telepräsenz und eLearning
Johannsen, Andreas
Universität Hohenheim (2002)
Abstract:
Optimistischen Prognosen folgte eine Ernüchterung, und so verläuft die Verbreitung des eLearning in Unternehmen heute als gemäßigt-kontinuierliche Evolution. Vor allem fehlen abgesicherte Konzepte, um eine methodisch effiziente Erweiterung des betrieblichen und des akademischen Lernens zu erreichen. Andreas Johannsen stellt ein umfassendes Konzept zur Planung und Durchführung von Seminarveranstaltungen und vergleichbaren Bildungsmaßnahmen vor, die durch eLearning-Methoden gestützt werden. Er untersucht, welche Auswirkungen der Einsatz von Telepräsenzsystemen auf das Lernen in Gruppen hat und welchen Stellenwert die Telepräsenz im eLearning im Vergleich zu weiteren Determinanten der Motivation, des Lernerfolgs und der Wissensanwendung einnimmt. Auf der Basis zweier Feldstudien erarbeitete Gestaltungsempfehlungen zum verteilten Lehren und Lernen in den Bereichen Management, Didaktik, Technologie, Lehr-/Lerngruppe runden die Arbeit ab.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Der Nutzen von ERP-Systemen: eine Analyse am Beispiel von SAP R/3
Mauterer, Heiko
TU Berlin (2002)
Abstract:
Auf der Basis eines organisationstheoretischen Konzepts und einer umfangreichen empirischen Untersuchung zeigt Heiko Mauterer, dass die größten Vorteile auf der Geschäftsprozess-Ebene entstehen, dass sie auf der Arbeitsplatz- bzw. User-Ebene hingegen relativ gering sind. Der bedeutendste Nutzenzuwachs lässt sich realisieren, wenn die Altsysteme möglichst konsequent abgelöst werden und die ERP-Software möglichst wenig modifiziert werdenwird. Die Implementierung und Einsatz von integrierter betriebswirtschaftlicher Standardsoftware, der den sogenannten ERP-Systemen, sind ist auf Grund der technischen, organisatorischen und personellen Komplexität von Unternehmen meist mit hohen Kosten für die einführenden Unternehmen verbunden. Dabei bleibt der betriebswirtschaftliche Nutzen häufig unklar. Auf der Basis eines organisationstheoretischen Konzepts und einer umfangreichen empirischen Untersuchung systematisiert und misst Heiko Mauterer den Nutzen von ERP-Systemen am Beispiel von SAP R/3 und untersucht, welche Faktoren den Nutzen beeinflussen. Es zeigt sich, dass die größten Vorteile auf der Geschäftsprozess-Ebene entstehen, dass sie auf der Arbeitsplatz- bzw. User-Ebene hingegen relativ gering sind. Den bedeutendsten Nutzenzuwachs können die Unternehmen realisieren, die die Altsysteme möglichst konsequent ablösen und die ERP-Software möglichst wenig modifizieren.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Content management integrierter Medienprodukte : ein XML-basierter Ansatz
Rawolle, Joachim
Universität Göttingen (2002)
Abstract:
Die technologieinduzierte Veränderung in der Medienindustrie stellt eine große Herausforderung für diese Branche dar. Kennzeichen für diese Veränderungen sind einerseits die Integration verschiedener Medien zu einem Produkt unter dem Stichwort Multimedia. Andererseits ergibt sich dieser Veränderungsprozess durch die Nutzung von Inhalten (Content) für unterschiedliche Einsatzbereiche – Stichwort content syndication. Vor dem Hintergrund dieser Veränderungen sowohl auf der Inhalts- und der Zugangsebene verfolgt der Autor das Ziel ausgehend von der Definition des Begriffs integriertes Medienprodukt die Einsatzpotenziale von XML (Extensible Markup Language) zu untersuchen sowie die organisatorischen und ökonomischen Implikationen zu beurteilen. Das Buch ist in sechs Kapitel gegliedert, wobei das erste einleitende Kapitel die Motivation und Zielsetzung darstellt. Die Grundlegung der Thematik im wissenschaftlichen Sinne erfolgt im zweiten Kapitel. Hier werden im Wesentlichen die Begriffe des Medienprodukts sowie Content-Management und XML umfassend thematisiert. Kapitel drei widmet sich schließlich der Integration von Medienprodukten und bildet somit eine zentrale Komponente des Buches. Hier geht der Autor nach Herleitung einer Begriffsdefinition bereits auf verschiedene konkrete Beispiele ein um verschiedene Aspekte zu verdeutlichen. Einen weiteren Schwerpunkt des Buches bildet das vierte Kapitel indem es sich der Unterstützung integrierter Medienprodukte durch XML widmet. Hier geht der Autor zunächst auf technologischer Ebene auf die grundsätzliche Funktionsweise von XML und anschließend auf die für die Medienintegration relevanten XML-Erweiterungen wie z.B. SMIL (Synchronized Multimedia Integration Language) oder SVG (Scalable Vector Graphics) ein. Der Darstellung der technischen Lösungsansätze erläutert der Autor die organisatorischen Implikationen entlang eines Referenzprozesses für die Erzeugung und Gestaltung XML-basierter Inhalte. Abgeschlossen wird das vierte Kapitel durch die ökonomische Reflektion, wobei der Autor sowohl auf operativer Ebene die Veränderung der Kostenstrukturen als auch auf strategischer Ebene die Veränderungen aufgrund zwischenbetrieblicher Kooperation von Medienunternehmen untersucht. Die praktischen Erfahrungen der Medienintegration werden in Kapitel fünf beispielhaft anhand zweier Fallstudien – dem Verlag Heinrich Vogel sowie dem Health Online Service Lifeline – dargestellt. Besonders hervorzuheben ist hier, dass nach strukturierter Darstellung der beiden Fallstudien die Ergebnisse zusammengefasst und strukturiert anhand der in den vorherigen Kapiteln erarbeiteten Ergebnisse gespiegelt werden. Kapitel sechs fasst schließlich die Ergebnisse zusammen und gibt einen Ausblick auf zukünftige Entwicklungen und Forschungsbedarf. Zusammenfassend gibt das Buch einen guten Überblick über die Einsatzpotenziale der XML-Technologie im Umfeld der sich verändernden Medienbranche. Durch das konsequente Referenzieren auf Praxisbeispiele nicht nur in Kapitel fünf, gelingt es dem Autor auch einen hohen Nutzen für Leser aus der Praxis zu erzielen. Durch umfassende Referenzierung auf weiterführende Literatur ist es dem Leser möglich, gezielt einzelne Teilbereiche oder Fragestellungen zu vertiefen. Leser, die eine technische Referenz zur Erstellung von Lösungen basierend auf XML-Technologien suchen, sei von diesem Buch abgeraten.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
XML als Basistechnologie für das Content Management integrierter Medienprodukte
Rawolle, Joachim
Universität Göttingen (2002)
Abstract:
Zentrale Fragestellungen: Was ist ein "integriertes Medienprodukt"? Welche Formen von integrierten Medienprodukten gibt es? Wie lassen sich integrierte Medienprodukte mit XML realisieren? Welche Auswirkungen wird das auf die Geschäftsmodelle und -prozesse in der Medienindustrie haben?
Comment:
1. Gutachter: Schumann 2. Gutachter: Hess
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Telekooperationsdidaktik
Schenk, Birgit
Universität Hohenheim (2002)
Abstract:
Im Zuge der beschleunigten technologischen Entwicklung, der zunehmenden internationalen Wirtschaftsverflechtung und der Marktglobalisierung werden zunehmend Telekooperationssysteme eingeführt. Ziel ist eine effiziente, konstruktive und zielgerichtete kooperative Zusammenarbeit im Team über Raum und Zeit hinweg. Birgit Schenk liefert einen umfassenden, kompetenten und verständlichen didaktischen Rahmen für die Konzeption und Durchführung von Trainings im Rahmen der erfolgreichen Einführung von Telekooperationssystemen. Die Autorin präsentiert theoretische Bausteine, beschreibt die systematische Planung und Durchführung anhand eines konkreten Beispiels und gibt zahlreiche praktische Hinweise. Grundlagen sind Erkenntnisse aus der Erwachsenenbildung, zum Umgang mit neuen Technologien und zur Kooperation in Gruppen.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Information und Kommunikation in multizentrischen Projekten
Schönert, Silke
Universität Koblenz-Landau (2002)
Abstract:
Die Durchführung von Projekten erfolgt zunehmend unternehmensübergreifend. Stellt die zielführende Kommunikation in standortzentrierten Projekten bereits eine Herausforderung dar, so verstärkt sich dies in dem Fall, dass die Teammitglieder standortverteilt agieren. Die Situation, der sich die Projektbeteiligten gegenüber sehen, ist durch mangelnde Vorgangs- und Informationstransparenz sowie eine hohe Personalfluktuation charakterisiert. Ausgehend von einer literatur- und empiriebasierten Analyse des Betrachtungsgegenstandes, wird die Formalisierung durch eine Evaluation von adäquaten Methoden vorbereitet. Der Fokus der Arbeit stellt die Konzeption des Prototypen PROVIT (Projektkommunikationsunterstützung in virtuellen Projekten) dar. Dieser dient der Unterstützung kommunikativer Prozesse in multizentrischen Projekten. Zu diesem Zweck werden fünf Komponenten bereitgestellt: die Administrationskomponente, die Aufgabenkomponente, die Informationskomponente, die auf der Graphentheorie basierende Kommunikationsstrukturkomponente sowie die Petri-Netz basierte Kommunikationsprozesskomponente.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Management netzwerkartiger Kooperationen
Wohlgemuth, Oliver
Universität Göttingen (2002)
Abstract:
In der Bildung netzwerkartiger Kooperationen wird zur Zeit eine der interessantesten Möglichkeiten zur Realisierung signifikanter Wettbewerbsvorteile gesehen. Viele dieser Unternehmensnetzwerke bleiben jedoch deutlich hinter den Erwartungen zurück. Als Hauptursache dafür gilt der Mangel an zwischenbetrieblicher Koordination und an geeigneten Steuerungsinstrumenten. Auf der Basis einer detaillierten Analyse relevanter Theorieansätze, bisheriger Forschungsbeiträge und aktueller Fallbeispiele entwickelt Oliver Wohlgemuth ein Rahmenkonzept für das Management von Unternehmensnetzwerken, in dem wahrzunehmende Aufgaben systematisiert und typische Leitungsstrukturen diskutiert werden. Darauf aufbauend erarbeitet er ein umfassendes Instrumentarium für die auftragsübergreifende Koordination der beteiligten Unternehmen. Basiskonstruktion, Anwendung und Verfahrensgrenzen werden für jede Methode detailliert beschrieben. Ihre Praktikabilität wird anhand von ersten Befunden aus der Netzwerkpraxis reflektiert.
Comment:
1. Gutachter: Schumann 2. Gutachter: Hess
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Ausdifferenzierung von Supply-chain-Management-Standardsoftware in Richtung auf Betriebstypen und Branchen unter besonderer Berücksichtigung des SAP APO
Zeier, Alexander
Universität Erlangen-Nürnberg (2002)
Comment:
1. Gutachter: Mertens
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Gesundheitsversorgung und Managed-Care im Krankenhaus
Beckers, Andreas
Universität Trier (2003)
Comment:
2. Gutachter: Czap
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Infrastrukturen für flexible Arbeitsarrangements
Brettreich-Teichmann, Werner
Universität Hohenheim (2003)
Abstract:
Verstärkte Mobilität und räumliche Dezentralisierung, zeitliche Flexibilisierung bei Steigerung der Performance sowie institutionelle Grenzverschiebungen sind Schlagworte im Zusammenhang mit Prognosen zur Zukunft der Arbeit. In den entstehenden verteilten Arrangements ist Wissen von zentraler Bedeutung, durchdringt nahezu alle Bereiche und wird zum neuen Produktionsfaktor. Wissen und Ideen bilden eine "Wired Resource", deren Nutzen mit ihrer Verwendung wächst. Werner Brettreich-Teichmann untersucht mit Hilfe der Strukturierungstheorie und anhand praktischer Beispiele und dokumentierter Fallstudien, wie die Wechselbeziehungen zwischen Organisation und individuellem Verhalten sowie die dazugehörigen IT-Werkzeuge für Wissensmanagement sinnvoll und zweckdienlich gestaltet werden können. Ziel ist, eine dynamische Infrastruktur aufzubauen, um Wissen zur Wertschöpfung einzusetzen.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Modularisierung von IT-Dienstleistungen
Böhmann, Tilo
Universität Hohenheim (2003)
Abstract:
Während in der Vergangenheit IT-Dienstleistungen oft für einzelne Nachfrager entwickelt und implementiert wurden, zeichnet sich inzwischen ein Trend zu ihrer Industrialisierung ab. IT-Dienstleistungen sollen bedarfsorientiert und mit Produktionskostenvorteilen gegenüber der Eigenerstellung angeboten werden. Spezifische Anforderungen der Unternehmen erlauben aber keine vollständige Standardisierung. Tilo Böhmann untersucht, wie sich bei Sachgütern erfolgreich umgesetzte modulare Produktarchitekturen auf IT-Dienstleistungen übertragen lassen, um Nutzenpotentiale für das Service Engineering und das Servicemanagement zu erschließen. Durch eine umfassende Untersuchung der Gestaltungselemente von IT-Dienstleistungen und ihrer dienstleistungsspezifischen Merkmale leitet der Autor eine Methode zum Entwurf modularer Servicearchitekturen her, bei der Systemkomponenten, Serviceprozesse und die Schnittstelle zur Nachfragerorganisation bei der Modulbildung berücksichtigt werden. Um die Anwendung der Methode zu demonstrieren, wird ein durchgängiges Fallbeispiel eingesetzt.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Peer-to-Peer Applikationen für elektronische Märkte: Perspektiven einer hochgradig dezentralisierten digitalen Wirtschaft
Gehrke, Nick
Universität Göttingen (2003)
Abstract:
Peer-to-Peer-Applikationen sind seit einigen Jahren weit verbreitet und insbesondere die Medienindustrie sieht sich durch Filesharing-Systeme bedroht, durch die die Distribution von z.B. Musik und Filmen immer unkontrollierter verläuft. Grund hierfür ist ein hoher Grad an Selbstorganisation durch die Nutzer, während zentrale Einheiten lediglich einfachen Koordinationszwecken dienen oder gar nicht vorhanden sind. Nick Gehrke erarbeitet Konzepte, wie Peer-to-Peer-Technologien nutzbar gemacht werden können, um elektronische Marktplätze hochgradig verteilt aufzubauen, so dass weitgehend auf zentrale Intermediäre verzichtet werden kann. Im Mittelpunkt der Untersuchung stehen die Themenbereiche kommerzielles Filesharing, Peer-to-Peer-Marktplätze und Grid Computing. Nick Gehrke erarbeitet Konzepte, mit denen Peer-to-Peer-Technologien nutzbar gemacht werden können, um elektronische Marktplätze hochgradig verteilt aufzubauen, so dass möglichst weitgehend auf zentrale Intermediäre verzichtet werden kann. Im Mittelpunkt stehen kommerzielles Filesharing, Peer-to-Peer-Marktplätze und Grid Computing.
Comment:
1. Gutachter: Schumann 2. Gutachter: Biethahn
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Mediale Inszenierung virtueller Teamarbeit
Hoffmann, Josephine
Universität Hohenheim (2003)
Abstract:
Flexible Formen der Zusammenarbeit werden vor dem Hintergrund vernetzter Unternehmenstätigkeiten und Globalisierungsstrategien zunehmend Realität. Hierzu gehören virtuelle Teams, die mittels moderner Telemedien unabhängig von Zeit und Ort eng zusammenarbeiten. Doch wo die räumlich nahe Zusammenarbeit durch die medial vermittelte Zusammenarbeit ersetzt wird, stehen breit praktizierte und oft wenig hinterfragte Kommunikations- und Interaktionsformen auf dem Prüfstand. Josephine Hofmann entwickelt einen Bezugsrahmen, anhand dessen sie aufzeigt, welche Effekte sich durch die medialen Kooperationsumgebungen ergeben können. In drei Fallstudien untersucht sie, ob und in welcher Form diese Effekte eintreten und wie sie gestaltet werden können. Es wird deutlich, dass die Zusammenarbeit über Telemedien von den Mitgliedern virtueller Teams ein stärkeres Bewusstsein für mediale Inszenierung und Medienwirkungen erfordert.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Adoption von Electronic Meeting System
Klein, Arnd
Universität Hohenheim (2003)
Abstract:
Arnd Klein gibt einen Überblick über den Stand der EMS-Forschung und entwickelt ein Einführungsmodell auf der Basis der Diffusionsforschung, das die bei der Einführung in Organisationen zu beachtenden Phasen beschreibt und aufzeigt, welche Faktoren ausschlaggebend sind, um EMS als Produktivitätswerkzeug optimal nutzen zu können.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
A theoretical and empirical study on the data mining process for credit scoring
Liu, Yang
Universität Göttingen (2003)
Comment:
1. Gutachter: Schumann 2. Gutachter: Biethahn
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Unterstützung der kommunalen Führung durch Informations- und Kommunikationstechnologie im Rahmen des New Public Management
Vöhringer, Bernd
Universität Hohenheim (2003)
Comment:
1. Gutachter: Krcmar
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Service Engineering in Versicherungsunternehmen unter besonderer Berücksichtigung eines Vorgehensmodells zur Unterstützung durch Informations- und Kommunikationstechnologien
Behrensdorf, Tobias
Universität Göttingen (2004)
Comment:
1. Gutachter: Schumann 2. Gutachter: Biethahn
edit abstract and comment | edit entry | edit Topics | edit Category | display Bibtex
Pilotierung virtueller Communities im Gesundheitsbereich
Leimeister, Jan Marco
Universität Hohenheim (2004)
Abstract:
Virtual Communities wird nachgesagt, dass sie Mitgliedern und Betreibern vielfältige Vorteile bringen können. Dennoch gibt es zahlreiche Felder, in denen sich bisher noch keine virtuellen Gemeinschaften gebildet haben, insbesondere im Gesundheitsbereich fehlen diese oftmals. Ziel der Arbeit: Erkenntnisse über den Pilotierungsprozess (bedarfsgerechte Entwicklung, Einführung und Betrieb) mobiler virtueller Gemeinschaften im Gesundheitsbereich erarbeiten und erproben. Vorgehen: Identifikation wichtiger Design-Elemente, zentraler Erfolgsfaktoren bei der Einführung und grundlegender Architekturelemente für den ökonomisch sinnvollen, technisch stabilen und sozial akzeptablen Betrieb (mobiler) virtueller Gemeinschaften zum Zweck der Umsetzung in Form einer Pilotierung im Gesundheitsbereich. Im Rahmen des Dissertationsprojektes werden zwei virtuelle Gemeinschaften für Krebspatienten zur Erprobung der zuvor erstellten Konzepte entwickelt, eingeführt und betrieben.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Portfolio-based segmentation and consumer behaviour : empirical evidence and methodological issues
Gunnarsson, Jonas
Universität Stockholm (1999)
Abstract:
Recent work in the area of retail financial services marketing almost invariably cite the deregulation of national and international financial markets as a major reason as to why financial institutions have a need for better knowledge of their customers' behaviors and needs. Among the most sought-after information are better ways to segment and target the market, that is, how do groups of households behave with regards to their savings and investments, why do they behave in certain ways, how can we reach them and how do they respond to marketing activities? In this thesis we will attempt to shed light on some salient aspects of the first two of these four questions. Three of the papers in this volume are based on the segmentation of the market for retail financial services based on different financial strategies, as expressed in households' portfolio choices. In the first two papers, such behavioral segmentation is carried out on data from samples of Swedish and Dutch households. Issues concerning the stability of segmentation over time are also highlighted. The third paper is also focused on the concept of heterogeneity, but this time as expressed by different agents within the individual household, the question being whether the marketing researcher needs to collect data from both spouses in family households. In the fourth paper behavioral segments are used as domains to examine differences in human intertemporal discounting.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Informations- und Kommunikationstechnologie in der Unternehmensberatung - Möglichkeiten, Wirkungen und Gestaltung eines kooperationsorientierten Technologieansatzes
Najda, Lars
Universität Hohenheim (2001)
Abstract:
Ein effektives Wissensmanagement in der Unternehmensberatung betrifft sowohl die projektbezogene Arbeit als auch die projektübergreifende Arbeit in Beratungsunternehmen. Ein systematischer Einsatz von Informations- und Kommunikationstechnologie muss an den Tätigkeiten und den Kooperationstypen ansetzen. Dabei sind die ökonomischen und sozialen Rahmenbedingungen des Technologieeinsatzes zu berücksichtigen, die die Möglichkeiten aber auch Grenzen der Informations- und Kommunikationstechnologie -Nutzung bestimmen. Angesichts der großen Bedeutung impliziten Wissens, das sich in der Erfahrung der Berater und Klientenmitarbeiter widerspiegelt wird das Wissensmanagement in der Unternehmensberatung auch in der Zukunft in besonderem Maße durch die Kommunikation zwischen Menschen geprägt. Die Herausforderung liegt darin, Informations- und Kommunikationstechnologie bereitzustellen, die auch in der verteilten Zusammenarbeit der Projektbeteiligten den notwendige Wissensaustausch ermöglicht.
Comment:
1. Gutachter: Krcmar
edit comment | edit entry | edit Topics | edit Category | display Bibtex
On the Philosophies of Rationality and the Nature of Decision Support Systems
Meredith, Robert
Monash University (2004)
Abstract:
Decision support systems (DSS) are computerised tools developed to assist decision makers through the process of making a decision. DSS are therefore inherently prescriptive - they seek to improve or enhance decision making in some way. This necessarily entails that the developers of such systems have in mind a vision of ‘good decision making’, that is, an understanding of the direction in which they wish to change the decision maker’s behaviour or task setting. DSS are also, therefore, closely tied to the concept of rationality. The common usage of the term ‘rationality’ generally means the tendency to act in a reasonable way, to systematically make good decisions. The concept, as this thesis shows, is far more complex than this common usage would suggest, but the aim of rationalists is to define what it means to act well, and by extension, to decide well. Rarely, however, is the question of exactly what it means to make a rational decision asked in the literature or practice of DSS. The DSS field has inherited a view of rationality from its roots in operations research, a view which, in turn, is derived from management science and economics. Indeed, this view is the predominant understanding of rationality that pervades most of western society - the idea that decisions are things which should be subjected solely to cold logical and deductive reasoning, and where the issue of emotions is considered to be a confounding factor. This tendency to discount the role of these so called ‘hot factors’ in the decision making process has its roots in western philosophy stretching back to Aristotle, with the prizing of reason over humankind’s more animalistic motives. The Renaissance, and the Enlightenment that it generated took this idea to argue against the idea of rule by divine right, replacing this with rule by reason. This tradition reached its peak in the mid-twentieth century, but in a much more extreme form, where emotions and feelings, particularly amongst scientists and business people, were considered the antithesis of rationality. This was never intended that this be the case, however. The original intent of the ‘fathers of the Age of Reason’ was that rational man would be governed by reason tempered by humanism , that is, blind reason would be guided and directed by man’s values and desire to do what is right and good. David Hume captured this idea with his famous dictum: "Reason is, and ought only to be the slave of the passions, and can never pretend to any other office than to serve and obey them." This thesis is an exploration of this idea, that this deference to reason in all things in western society is something to be concerned about, and the recognition of the fact that decision support tools embodying this view of rationality help to reinforce and exacerbate what turns out to be a faulty view of good decision making. The thesis begins with a review of the current dominant view of rational decision making within the judgement and decision making literature: the Rational Choice Model, encompassing well known theories such as Subjective Expected Utility Theory, and shows that the model fails descriptively, prescriptively and normatively. Attempts to either shore up, or replace the model have had some success from a descriptive and, up to a point, prescriptive perspective, but the problem of a normative standard of rational decision making still exists. The literature on the philosophy of rationality offers little initial help, either assuming a similar set of foundations to the Rational Choice Model (objectivity, internal consistency, regarding emotions and feelings as irrational), or presents a confusion of conflicting definitions. In an effort to address this problem, the thesis develops a model of rational action and decision making that provides us with a tool for understanding this complex concept and evaluating various treatments of it. The model, derived from the philosophy of action, depicts rational action and decision making as relying on a balance between logical-empirical factors such as logic and deductive reasoning, and normative-affective factors such as values, feelings and emotions. The consideration and balance of the two types of factors is, essentially, rational decision making. This model is then used to assess the writings on rationality of two German sociologists - Max Weber and Jürgen Habermas. Taken together, the collective vision of rationality developed initially by Weber for individual rationality, and then expanded upon to include rationality within social groups by Habermas in his theory of communicative action , represents a rich conception of rationality that fully encompasses the various kinds of rationality seen in society, within a broad framework of normative-affective factors: Weber’s ‘Value-Sphere’ and Habermas’s ‘Life World’. From this ‘rich’ view of rationality the thesis derives three principles for rational decision making that can stand as a replacement normative standard for the Rational Choice Model’s austere approach. These principles are: autonomy, in that the decision should be a free act of will; ethicality, in that a decision should be oriented towards, and compatible with, the decision-maker’s value-sphere or lifeworld, striking a balance between the normative-affective and the logical-empirical; and consideration, in that a decision maker should reflect upon and consider their reasons for making a particular decision prior to making it. These principles outline a vision of balance in decision making: in contrast to the prevailing normative standard that, whilst it accommodates a very parsimonious inclusion of normative-affective factors through the utility concept, is heavily oriented towards objective, logical-empirical factors. The principles maintain this latter type as important in the decision making process but argue for a well-balanced view that sees the former as important too, resulting in a richer, more ethical view of rational decision making. Having argued for this new balanced normative standard of decision making, the thesis turns its attention to decision support and speculates on the nature of systems that might help the decision maker strike such a balance. In the past, decision support tools have had a great deal of success in managing information related to logical-empirical decision factors, often through the provision of access to numerical data and mathematical models to manipulate it. To support a more balanced view of these two different kinds of factors, DSS need to be recognised as one part of a possibly complex decision environment, where information from a variety of sources, in a variety of formats and media, is accessed in a variety of ways. The thesis concludes with this argument, that is, that rational decision making requires a balance between logical-empirical and normative-affective factors, and that this is facilitated through the provision of a rich, well-balanced, decision environment, part of which may be a computer-based decision support system.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Organizational Strategies to Address Stakeholder Relationships: A Customer Portal Perspective
Schwager, Paul H.
Auburn University (2004)
Abstract:
Communication is a critical function of organizations (Barnard 1937). With the advent of the Internet and the concept of "Internet time," new approaches to communication are revolutionizing the way in which organizations carry out their communication with stakeholders. Information technologies, and the concept of portals, have changed the way most organizations relate to their environments. New buzzwords like business-to-consumer (B2C), business-to-business (B2B), business-to-employee (B2E), business-to-partner (B2P) and even portal-to-portal (P2P) and peer to peer (P2P) suggest that the Internet is changing the very nature of how businesses operate and communicate. Earlier generations of information systems have tended to be proprietary, using electronic data interchange (EDI) methodologies and client-server local area networks to improve business processes. Such legacy systems have been successful in providing an information base to support operational levels where the task structure facilitates automation. However, in today's new digital Internet world, legacy systems have proven to be less flexible in responding to changing communication needs than Internet based portals. In addition, less-structured internal and external information required for tactical or strategic decision-making is also critical to maintaining organizational performance during periods of rapid change. The purpose of this study is to understand how portals impact stakeholder relationships within this electronic business environment. The study proposes to extend the understanding of information systems through the application of portals as critical stakeholder communication and information channels. Employing a muliple case study approach, this study utilzes four cases based on published data (Amazon, Barnes & Noble, Cisco, and Dell) as well as four cases based on interviews (Lowe's, SAIC, WC Bradley/Char-Broil, and NetBank) in advancing our understanding of the relationship between organizations and customers.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Software-Infrastruktur Von analytischer Perspektive zu konstruktiver Orientierung
Bleek, Wolf-Gideon
Universität Hamburg (2003)
Abstract:
The term infrastructure was originally used in military and economic contexts, where it meant the “basic structures and facilities necessary for an organization”; it is now being used increasingly for information systems in a variety of meanings. This text focuses on software infrastructure and makes the essential point that infrastructures are taken for granted as necessary conditions for everyday tasks. Software applications relate to other software and are themselves composed of software of different origins. Software is networked; it is used in changing work contexts, affects other contexts, and is to a limited extent controlled by users, providers, developers, organizations, communities of practice, and so on. Nowadays, software development rarely involves the development of new products from scratch, but the further development, customization, or configuration of existing products. Developing software infrastructures therefore needs to take into account existing software and handle a rising number of interests and possibilities of interference in complex contexts. What would a suitable development process look like? How does one handle interferences from concurrent development projects? From a software engineering perspective, the question arises how a line can be drawn between development projects. Which theoretical concepts can help to identify infrastructural interrelationships, and how can these be adapted to concrete development projects? Theoretical foundations that are taken into account to construct a specific theory are research on large technical systems, the web model, actornetwork- theory, and infrastructural criteria. Empirical data are examined with methods of qualitative research, action research and grounded theory. Three case studies (the International Women’s University, the hamburg.de project, and the CommSy project), in all of which the author actively participated as a developer, form the basis for developing characteristics of infrastructures in general, an understanding of software infrastructures, and provide supplementary insights for a specific software development process. Taking the condensed experiences from the projects and the results of the above-mentioned research as a starting point, an existing framework for evolutionary participatory software development is taken and adjusted to the specific needs identified. The following characteristics of the examined software infrastructures are derived directly from the case-studies: they must be capable of being further developed, configured, and reproduced; they further need to provide everyday viability, to be standardized and extendable. The characteristics help understand software infrastructures and provide a starting point for a constructive approach. Where a large number of different actors and their various interests have to be coordinated, the concepts of role and community of practice do not suffice. To deal with these shortcomings, the concept of arenas and an understanding of parallel asynchronous development activities are introduced. Actors arrange themselves in arenas, which are defined by a common point of reference and synchronous actions. This helps to identify disparate needs within the software development process from different perspectives, which we shall call the view from within and the view from without. Interferences constitute a particular problem when developing infrastructures; they are negative reciprocal effects between independent asynchronous development activities. The proposed interference management addresses this by constructing and maintaining a continuous overview, taking care of the communication among the participants, and by identifying, reducing, treating, banishing and alleviating interferences. The core feature of the extended evolutionary software development process is the continuous development of the relevant sections of and actors in the infrastructure. This has to happen in the light of one’s own development activities and taking into account the various disparate interests. To ensure this, continual switching has to take place from local closure – which guarantees the security of the development activity – to global coverage, which anchors the development process within the infrastructure as a whole.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
The Model of Trust Factors in Paying through the Internet
Bracun, Franc
University of Maribor (2003)
Abstract:
As electronic commerce is developing, execution of payment transactions is becoming increasingly important. It has been found that the main obstacle for electronic commerce development is fear related to safety of the financial transactions over the Internet. Such situation is more a consequence of people's perception and not so much of inadequate security. One can assume that rational consumer enters into a transaction if he believes that he will actually get the goods or services he is about to pay for, or that something can be done if he dose not get what he paid for. Thus, as electronic commerce is developing, the confidence in the Internet payment system is becoming increasingly important. Therefore, a framework to provide a richer explanation of trust in the context of electronic commerce is in great need today. Previous research has resulted in contradictory findings concerning the relationship between confidence and trust, and between trust and perceived risk. This work proposes a theoretical model that reconciles these unresolved contradictions by distinguishing between trust in three different levels: personal, interpersonal, and system level. Based on this, it is posited that perceived risk is intermediate between trust and confidence, and that trust and confidence do not work alone in the context of electronic commerce, but they need each other. Propositions derived from the conceptual model provide an agenda for empirical research. This work employed cross-sectional survey methodology to examine the potential factors inducing different forms of trust in online buyers and sellers and the effects of trust. Findings indicate that the proposed model is able to explain and predict buyer and seller acceptance of the Internet payments substantially well. The results reveal that trust in third-party impresses both buyer and seller by increasing perceived security and perceived control. The results show that trust in wider meaning increases the level of security and reduces the level of risk perception, and consequently increases confidence in the Internet payments. The results also show that confidence in the Internet payments increases buyer and seller's willingness to make an online payment. The dissertation concludes with a discussion of the implications of this work to both researchers and practitioners. In sum, trust is multidimensional and complex construct composed of combined bases of expectations, which are mediated by perceived risk and conditioned by preference structure of the trustor, i.e. risk propensity and propensity to trust.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
IT Professional Work Identity: Constructs and Outcomes
Windsor Buche, Mari
University of Kansas (2003)
Abstract:
As technology continues to change at a rapid pace, Information Technology (IT) professionals are required to adapt to new tasks and enhanced roles. These continuous adaptations lead to alterations in their work identity, which is characterized by the internalization of job tasks, job environment, and social interactions. This study will elicit the determinants of IT professional work identity and facilitate an understanding of the phenomenon by describing factors that force IT professionals to change their work identity. In addition, the final analysis will discuss the impact of such changes on IT professional outcomes. The salient outcome variables, evoked using the revealed causal mapping (RCM) method, were identified as job satisfaction and organizational commitment, including intention to leave. Determinants include Job Characteristics (including social interactions) and Role Identity constructs, moderated by Attitudes Toward Work, Profession, and Change. The process of developing the model was iterative, combining data analysis results with existent literature in a continuous fashion, with the goal of producing a testable model. The second phase of the work involves testing the model for goodness of fit using survey data from IT professionals. It is anticipated that work identity will be a latent variable. This assumption will be tested using structural equation modeling technique. This project is multidisciplinary, incorporating academic areas of Information Systems, Human Resources, Social and Cognitive Psychology, and Organizational Behavior. Foundational theories include social identity theory, self-categorization theory, social learning theory, IT personnel turnover theory, and occupational identity theory. The multi-method study combines qualitative and quantitative techniques to investigate the IT professional work identity phenomenon. The methodology includes revealed causal mapping (RCM) of interviews with IT personnel and structural equation modeling to assess the fit of the work identity model. The academic contributions of this study are (1) identifying the determinants of work identity for IT professionals, (2) creation of a validated survey instrument, and (3) applying Revealed Causal Mapping methodology to studying the IT professional work identity phenomenon. Practitioners will benefit from suggestions for increasing retention of IT personnel, improving job satisfaction, and promoting organizational commitment in the work environment.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Mine the Gap: A Multi-Method Investigation of Web-Based Groupware Use
Billeskov Bøving, Kristian
University of Copenhagen (2003)
Abstract:
Computer mediated communication in organizations today is characterized by the introduction of packaged, generic computer media based on Internet technology to support communication and collaboration. This challenges conventional views and theories on how technology is related to the context (i.e. social structures) in which it is embedded. One type of technology introduced in organizations is virtual workspaces, a specific type of web-based groupware. This thesis investigates the adoption and use of a virtual workspace technology in an organization. It studies how the technology is adopted and integrated in the organization and in specific work practices. The theory of genres of organizational communication is used as a framework for specifying the context relevant for understanding the adoption of the technology. The study of computer mediated communication in temporally and geographically distributed settings poses methodological challenges as to the observation of usage. This study explores the triangulation of different methods for analyzing usage of the technology and develops a method for utilizing and integrating log file analysis in a case study, which can serve as a possible response to the methodological challenge.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
ERP Life Cycle Implementation, Management and Support: Major Issues with SAP Financials in Five Queensland Government Agencies
Chang, She-I
Queensland University (2003)
Abstract:
This paper reports on exploratory, descriptive and comparative analyses of client-centred major issues, from the perspectives of individuals who have been directly and substantively involved with SAP Financials in five closely related government agencies. A three-round, nonanonymous, Delphi-type, open-survey was adopted using personalised email with attached survey instruments. To support the interpretation of study findings, a series of interviews and domain experts’ workshops were conducted during and after the Delphi survey rounds. Implications for practice and research are discussed. The study also makes interesting methodological observations, suggesting pitfalls and possible improvements when employing a Delphi-type survey approach in similar or more traditional IS key issues studies.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Searching and Mining the Web for Personalized an Specialized Information
Chi-Lung Chau, Michael
University of Arizona (2003)
Abstract:
With the rapid growth of the Web, users are often faced with the problem of information overload and find it difficult to search for relevant and useful information on the Web. Besides general-purpose search engines, there exist some alternative approaches that can help users perform searches on the Web more effectively and efficiently. Personalized search agents and specialized search engines are two such approaches. The goal of this research is to investigate how machine learning and artificial intelligence techniques can be used to improve these approaches.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Formality and Informality in Internal Control Systems: A Comparative Study of Control in Different Social and Cultural Environments in a Global Bank
Chauvidal, Narisa
University of London (2003)
Abstract:
This thesis examined the relationship between formal systems and informal norms in internal control systems in a global bank. The thesis argues that the global policies and standardised manuals and procedures of multinational firms cannot be internalised and interpreted in the same way as anticipated by the management in every branch. This assumption confirms the importance of the need for this study to increase an understanding of the issues and concerns in the management of internal control systems among different organisations in different cultural and social environments. A broad range of literature has been reviewed and it was found that little research in information systems security had previously focused on the internal control systems. As such, this research presents a new area in information systems security study. This research aimed to provide a qualitative approach to increase an understanding of the relationship between formal and informal systems. The main objective was to analyse in depth the interaction between these two systems. More focus was placed on the study of people who played a significant role in the control systems. In pursuing this aim, the interpretive case study of a global bank in two branches was conducted. The findings from this research suggest that there are problems in implementing internal control systems globally across the bank. The internal control systems should be examined with respect to both formal and informal analysis. The considerations should be focused more at the informal level where pragmatic and semantic concerns should be addressed. The thesis concludes that qualitative approach is an appropriate way to conduct research in cross-cultural studies in information systems security, also that semiotics theory is an appropriate approach in this area of study.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Strategic Planning for Information Systems: A Sociotechnical View of Boundary and Stakeholder Insufficiencies
Coakes, Elayne
Brunel University (2003)
Abstract:
The thesis proposes that Strategic Planning for Information Systems (SPIS) has become ineffective through a tendency to focus on the information technologies involved. The thesis argues that the dominant rational, reductionist epistemology of SPIS methods, tools and techniques limits the effectiveness of SPIS through methodological impoverishment. The thesis proposes that a humanistic, sociotechnical perspective of SPIS accommodates the use of complementary tools and techniques that improve the process. This thesis advances a new Framework to improve the process of SPIS based on the propositions; first that the lack of sufficient knowledge of both the internal and external environment is a root cause of many of these insufficiencies, and second that this knowledge is held within the stakeholders of this process. An emancipatory information systems research programme (Klein and Hirschheim, 1987) is used to advance a framework that overcomes the insufficiency and inadequacy of the process of strategic planning for information systems in organisations that permits information systems to fail. The framework is tested on two organisations and shows that the proposed Framework has significant potential to improve the SPIS process. The case research investigates the role of stakeholders, knowledge, and boundaries in the process of SPIS in order to develop more sufficient methods for the process of SPIS that address the perceived inadequacies in current processes, and thus provide an improved strategic planning process for information systems. Two novel tools are introduced: the Stakeholder Web and the Interaction Matrix. Their evolution is a major contribution of this research. The collection of tools presents a practical research contribution for the SPIS process and as generic (methodological) research tools. A new definition for the term ‘stakeholder’ is formulated and used to supply clarity in understanding for this study – and would prove useful for the field of IS.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Control Enactment in Global Virtual Teams
Crisp, Charles Bradley
University of Texas (2003)
Abstract:
These findings are based on analyses of teams formed for an eight-week student exercise coordinated by the author. Teams in field settings or with different external environments may have occasioned different control processes from those observed here. Further, the data were primarily archival in nature, so access to member perceptions was somewhat limited. The reader should examine the appropriateness of generalization to other settings.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Information Technology Facilitating Interorganizational Learning In an IT Outsourcing Collaboration: An Examination of Transparency and Receptivity
Davidson, Marlene V.
Claremont Graduate University (2003)
Abstract:
This proposal outlines a study to further develop theory related to interorganizational learning by exploring how the use of IT in an alliance will impact the ability of each partner in the relationship to learn. The study aims to do this by examining how the use of IT impacts an organization’s degree of transparency and its degree of receptivity (two key enablers of interorganizational learning). The research will also explore how the ability of the partners to learn impacts the amount of learning derived from the alliance, as well as the impact that the intent of the partners has on the ability to learn.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Business Process Improvement Using Asynchronous e-Collaboration: Testing the Compensatory Adaptation Model
DeLuca, Dorothea Carol
Temple University (2003)
Abstract:
The results dispute theories that would indicate the necessity offace-to-face communications for a process improvement task. In attempting to explain both the negative and positive results in this contextthis study contributes to filling the theoretical gap by supporting the compensatory adaptation modelwhich explains the interplay of the decreased naturalness of an asynchronous electronic mediaincreased cognitive effortovercompensation for perceived obstacles to communicationand increased outcome quality. This study also demonstrates the use of a research framework that synthesizes the four dialectics of rigor/relevance of researchpositivist/interpretive epistemologyquantitative/qualitative methodsand confirmatory/disconfirmatory evidence
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Measuring the Effectiveness of E-Commerce Website Design and Its Impact on Business Value
Hahn, Jungpil
University of Minnesota (2003)
Abstract:
The assessment of the effectiveness of e-commerce websites is of critical importance to online retailers. However, the current techniques for evaluating effectiveness are limited in that they do not allow for formal empirical measurement of the productivity and performance of the website. In this paper, we use the theoretical perspective of production economics to measure the performance of Internet-based selling websites. We model the website as a production system where customers consume inputs (i.e., use various functionalities of the website) to produce an output (i.e., a basket full of items at checkout). With this basic perspective, we propose an analysis methodology for measuring and comparing website efficiency and attributing observed inefficiency to customer inefficiency or website design inefficiency. The application of the proposed evaluation methodology to a currently operational e-commerce website demonstrates the value of our technique.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Online Education on Campus: A Technological Frames Perspective on the Process of Technology Appropriation
Hsu, Wei-Yuan Carol
University of London (2003)
Abstract:
The advent of computer-mediated communication (CMC) and the Internet has created significant opportunity for online education. Research on this topic has addressed its effectiveness, but as yet little attention has been given to the technology appropriation process in this context. This thesis adopts a social constructivist perspective. To enhance the understanding of online education, the study argues for abandoning the notion of technology as a passive tool and, instead, for considering the contextual issues which surround it. In order to understand how learning and technology appropriation takes place, the organisational and cultural setting needs to be considered. From this underlying conceptual position, the thesis constructs a theoretical framework using theories of collaborative and situated learning in combination with technological frames analysis. Applying this framework, an empirical study is performed on the implementation of an online education system at a traditional U.K. university. Research findings suggest that student perception and interpretation of technology and of online education are strongly influenced by their understanding of the institution, and these perceptions alter students’ subsequent behaviour towards technology during the learning process. Furthermore, the study reveals that student appropriation of technology changes in accordance with the surrounding context and their realisation of the educational value which emerges from their interaction with the system over time. The theoretical contribution arises from applying to the study of online education the social constructivist approach to information systems. The methodological contribution lies in demonstrating the value of the interpretive approach for understanding online education on campus. Empirically, the thesis has significant value for educationalists by highlighting the contextual issues that affect student appropriation of technology and the consequent learning outcomes.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
The Credibility of Online Information
Huerta, Experanza
Claremont Graduate University (2003)
Abstract:
This study investigated the factors affecting online information credibility. It is built upon the Elaboration Likelihood Model, a theory of persuasion, and previous research on information credibility to propose a comprehensive model of Web message credibility. Based on this theoretical framework, the study used a field experiment where quality of content, modality of exposure, simulation, message attractiveness, and reputation of the Web site owner were manipulated to assess their impact on Web message credibility. Participants in the study logged into the Web site designed for the experiment from wherever they usually access the Internet. The Web site first showed a Web message randomly selected out of thirty-two possible Web messages. Then, participants answered an online questionnaire. Out of the five factors manipulated, quality of content and reputation of the Web site owner showed statistical significance in the expected direction. The following conclusions are drawn from the study. In terms of theory: (1) The Elaboration Likelihood Model is an adequate theoretical framework to study persuasion in the context of online information. (2) The reputation markers particular to online information found in previous research were confirmed in this study. (3) Multimedia (high level of modality of exposure) is a complex variable that needs a theoretical framework of its own. This research identified four factors affecting multimedia effectiveness: attractiveness, quality, need for vividness, and required pace of exposure. In terms of research procedures for online experiments: (1) Multimedia is a variable not suitable for an uncontrolled environment since multiple factors affect its effective delivery. If for some reason multimedia must be implemented in an uncontrolled environment, participants should be asked about any factor that might influence the effectiveness of the multimedia presentation. (2) Online studies should take advantage of available click-stream technology to provide information about break-off points and participants' behavior. In terms of design guidelines: (1) The visibility of highly reputed sources should be enhanced. (2) Web sites using utilities that might not work properly based on users' browser settings or Internet surveillance software should notify users that proper functionality might not be achieved.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Web-basierte Informationsaustauschplattform für internationale humanitäre Projekte
Hüsemann, Stefan
Universität Freiburg (2003)
Abstract:
Eine Vielzahl von international tätigen humanitären Organisationen versucht, die Lebens-bedingungen der Armen und Benachteiligten dieser Welt zu verbessern. Das Management solcher Entwicklungsprojekte ist eine Herausforderung, da eine Vielzahl von Stakeholdern berücksichtigt werden sollte und die Hilfsleistungen verschiedener Organisationen koordiniert werden müssen. Computergestützte Informations-systeme können helfen, den in humanitären Organisationen geschwächten kybernetischen Regelkreis zu schließen, indem sie das "organisational learning" fördern und den Informationsaustausch zur besseren Koordination sicherstellen. Stefan Hüsemann untersucht Informations-systeme für humanitäre Projekte und betrachtet dabei sowohl betriebswirtschaftliche als auch informations- und kommunikations-technische Aspekte. Er analysiert Architekturen für schwach gekoppelte, verteilte Informationssysteme und beschreibt Standards für den Austausch elektronischer Informationen. Eine Marktstudie erforscht den Stand web-basierter Informations-systeme für humanitäre Organisationen. Der Autor stellt sein Konzept einer web-basierten Informations-austauschplattform für qualitative und quantitative Projektinformationen vor. Die Extensible Markup Language (XML) und darauf aufbauende Standards bilden die Grundlage des als Prototyp realisierten "Development Information Exchange System". Das Konzept trägt zur Schließung des kybernetischen Regelkreises bei und berücksichtigt die Besonderheiten im humanitären Bereich sowie theoretische Erkenntnisse aus dem Informations- und Wissensmanagement.
edit comment | edit entry | edit Topics | edit Category | display Bibtex
Entwurf einer Sprache für die Modellierung von Ressourcen im Kontext der Geschäftsprozessmodellierung
Jung, Jürgen
Universität Duisburg-Essen (2007)
Abstract:
Unternehmensmodellierung zielt auf die Darstellung von Unternehmen aus unterschiedlichen Sichten und auf verschiedenen Abstraktionsebenen. In den vergangenen Jahren hat sich in diesem Kontext eine prozessorientierte Sichtweise im Bereich der Unternehmensmodellierung etabliert. Auch in der betriebswirtschaftlichen Organisationslehre steht mittlerweile weniger die Aufbauorganisation im Vordergrund als die Abläufe. Ein wesentlicher Grund hierfür mag sein, dass Werte durch Prozesse geschaffen werden und nicht durch Strukturen. Derzeit existieren einige Sprachen für die Modellierung von Geschäftsprozessen. Beispiele hierfür sind UML-Aktivitätsdiagramme, Ereignisgesteuerte Prozessketten (EPK) oder Petrinetze. Diese Sprachen bieten jedoch nur rudimentäre Konzepte für die Modellierung von Ressourcen. Das ist insofern erstaunlich, als dass Ressourcen wesentlich für die Durchführung von Prozessen sind. Gegenstand der vorliegenden Arbeit ist der Entwurf einer dedizierten Sprache für die Modellierung von Ressourcen im Kontext der Geschäftsprozessmodellierung. Durch diese Sprache sollen Ressourcen explizit dargestellt werden können, die für die Durchführung von Geschäftsprozessen benötigt werden. Diese Modellierungssprache für Ressourcen ist integraler Bestandteil einer Methode für die Unternehmensmodellierung, MEMO (Multi-Perspective Enterprise Modelling).
edit comment | edit entry | edit Topics | edit Category | display Bibtex


display Bibtex of all dissertations
  
Generated Sat, Jul 20. 2019, 19:43:16 | Administrator