Dr. Matthias Berth

Funktionale Expertise

Neu: Software-Lieferprozess

Projekt-Management

Projektdefinition (business owner) ∗ Projektleitung technisch und fachlich ∗ Outsourcing, remote teams ∗ Anforderungsmanagement ∗ Abhängigkeitsanalyse ∗ Projektplanung (Scope, Termine, Budget, Qualität) ∗ Risiko- und Kommunikationsmanagement ∗ Projektcontrolling (Zeit- / Budget- / Fortschrittskontrolle) ∗ Test fachlich und technisch

Repräsentative Erfahrung aus geleiteten Projekten:

  1. Projektleitung bei der Entwicklung eines Lab Information Management Systems (LIMS) für die Organisation, Qualitätskontrolle und Analyse von Daten aus der Massenspektrometrie von Proteinen. Verantwortlich für alle Phasen des Projekts von der Erfassung von Anforderungen, Erstellung des Angebots bis zur Auslieferung und Inbetriebnahme, sowie Wartung. Durch intensive Interviews mit zukünftigen Anwendern und regelmäßig eingeholtes feedback konnten effizientere Labor-Workflows formuliert und umgesetzt werden. Das System gewährleistet die kontinuierliche Integration von Daten aus verschiedenen Quellen (Messgeräte, Analyse- Datenbanken, externe Genomdaten), für Dutzende Forschungsprojekte an drei Instituten der Universität Greifswald über einen Zeitraum von derzeit ca. 8 Jahren.

    Projektleitung für alle Phasen des Projekts vom Angebot bis zur Auslieferung und Inbetriebnahme, sowie Wartung. Besondere Herausforderungen waren die Abbildung der Laborprozesse, Datenintegration und die Vermittlung des nötigen Hintergrundwissens an ein Team von fachfremden Softwareentwicklern. Durch Anwendung von best practices wie continuous integration und automatischem functional und unit testing wurde eine gleichbleibend hohe Software-Qualität sichergestellt, trotz hoher Fluktuation im Entwicklerteam. Das Team war verteilt (Pakistan, Ukraine, Russland, Polen, Ägypten), die Kommunikation erfolgte weitestgehend asynchron über Ticketing-System, Wiki, Versionskontrolle usw..

  2. Verbesserung der Performance eines Systems zur automatisierten Bildanalyse. Durch Definition eines Portfolios von Algorithmen, Benchmarking, automatisierte Qualitätskontrolle und Parallelisierung konnte die Performance hinsichtlich Ergebnisqualität und Geschwindigkeit wiederholt gesteigert werden.

  3. Informationssysteme zur Unterstützung von Forschungsprojekten in Functional Genomics. Als Projektleiter verantwortlich für Erfassung von Anforderungen, Meilensteinplanung, Fortschrittskontrolle, Architektur. Definition von Software-Schnittstellen (APIs) zwischen internen und externen Systemen.

Datenanalyse, Entwicklung von Algorithmen

Statistische Verfahren (parametrisch, nicht-parametrisch) ∗ explorative Datenanalyse ∗ Visualisierung ∗ Data Mining ∗ Anforderungsanalyse ∗ Auswahl von Verfahren ∗ Technologieauswahl ∗ Benchmarking ∗ Optimierung

Repräsentative Erfahrung:

  1. Mehrere Vorträge auf summer schools über Planung von Experimenten, statistische Auswertung, praktische Hinweise und Vermittlung grundlegender statistischer Verfahren

  2. Analyse von Genexpressionsdaten im Kundenauftrag mit Erfassung des experimentellen Kontexts, Identifikation der Ziele der Analyse, Auswahl geeigneter Methoden, Präsentation der Ergebnisse mit Visualisierungen und interaktiven reports.

  3. Analyse von Bestellverhalten, Kundengruppen, daraus Ableitung einer fundierten Ertragsprognose für ein neuartiges Angebot.

  4. Demonstration der Anwendbarkeit von Image Warping zur Effizienzsteigerung bei Analyse von 2D- Gelen führte zur Gründung der DECODON GmbH

  5. Grundlegende mathematische Verfahren für erfolgreiche Bildsegmentierung ausgewählt, Strategie des gesamten Verfahrens entwickelt. Qualitätskontrolle für Segmentierung und Quantifizierung etabliert.

  6. Neuartiges Verfahren zur vergleichenden Analyse und Zusammenfassung per Bildfusion mitentwickelt. In enger Zusammenarbeit mit Anwendern wurde dieses Verfahren zur Grundlage für statistische Auswertungen mit wesentlich gesteigerter Signifikanz bei geringerem Zeitbedarf. Analoge Verfahren wurden später von Mitbewerbern übernommen.

  7. Beteiligt an der Entwicklung mehrerer Generationen eines Verfahrens für die automatische Bildregistrierung. Qualitätssicherung durch ein benchmark-set bestehend aus Kundenbildern sowie synthetischen Bildern.

  8. Auswahl von Libraries und Algorithmen zum Data Mining in und Visualisierung von Genexpressionsdaten.

Softwareentwicklung und -Architektur

Datenbankbasierte Webapplikationen ∗ Schnittstellen (APIs) definieren und anwenden ∗ Legacy-Applikationen modernisieren ∗ Objektorientiertes Programmieren, u.a. mit Ruby, Python, Java ∗ Bildanalyse ∗ Automatisiertes Testen (unit und functional tests)

Repräsentative Erfahrung:

  1. Entwicklung einer Applikation zur Verwaltung von Registrierungen für eine Konferenz. Konzeption und Architektur der Applikation (workflows, accounting). Einarbeitung von weiteren Entwicklern, Ansprechpartner für Software-Architektur, Code-Qualität. Infrastructure automation mit ansible. Team: 100% remote, Teammitglieder u.a. in Indien, China und Australien.

  2. Evaluierung der Architektur mehrerer z.T. recht komplexer Legacy-Applikationen. Architekturoptionen dargestellt und bewertet, Migrationspfade für die Zielarchitektur entwickelt.

  3. Erweiterung einer bestehenden Call-center-Applikation. Konzeption für Vereinfachung der gewachsenen Architektur, und zur Migration auf die Ziel-Architektur wesentliche Erhöhung der Testabdeckung mit unit-Tests, parallel zur laufenden Weiterentwicklung beteiligt an Verbesserungen im Software-Lieferprozess, u.a. Continuous Integration, Bugfixing. Teammitglieder u.a. in Indien, China und Australien

  4. Weiterentwicklung einer Web-basierten Applikation für email Management (SaaS). Entwicklung eines Werkzeugs zur Priorisierung von Kontakten anhand ihrer email-Historie. Schnittstelle zu GMail. Etablierung von unit-Tests und automatisierten functional Tests.

  5. Entwicklung mehrerer interaktiver Visualisierungen für die Qualitätskontrolle und Analyse von Proteinidentifikationsdaten. Implementation mit SVG im Browser.

  6. Definition und Implementation von APIs zwischen LIMS und externen Anwendungen, mit XML- Repräsentationen für Datenbankinhalte. RESTful architecture und Ruby on Rails wurden zur Implementation des Services genutzt.

Unternehmensgründung und -führung

Business-Modell ∗ Plattformen ∗ Personalführung ∗ Finanzierung ∗ Partnerschaften

Veröffentlichung

Christoph Lefkes, Matthias Berth, Christian Schultz “Perspektivenwechsel im Handel – von disruptiven Geschäftsmodellen lernen und Gegenstrategien entwickeln” Buchkapitel in Digitale Transformation von Geschäftsmodellen, 2016, Schallmo, D., et al. (Hrsg.)

Entwicklung des Drei-Säulen-Modells für das Portfoliomanagement von Digitalisierungsprojekten, in Zusammenarbeit mit Christoph Lefkes und Christian Schultz. Vortrag “Portfolio Digitalisierung Alles oder nichts?”, beim Project Management Institute (PMI) Frankfurt Chapter, Heidelberg 02/2016

Repräsentative Erfahrung

Als Mitgründer und technischer Geschäftsführer wesentlich beteiligt am initialen Business Plan, verantwortlich für die Produkt- und Technologieentwicklung, mitverantwortlich für Strategie, Finanzierung (Fördermittel, Darlehen, Anschlussfinanzierung) und Etablierung von Vertriebs- und Entwicklungspartnerschaften.

Produktmanagement

Anforderungsanalyse ∗ Marktanalyse ∗ Steuerung der Softwareentwicklung ∗ Release-Management ∗ Qualitätssicherung

Repräsentative Erfahrung:

  1. Als technischer Geschäftsführer verantwortlich u.a. für eine Desktop-Anwendung zur Analyse von 2D-Gelen mit hunderten Kunden in Arbeitsgruppen an Universitäten, Forschungsinstituten und in der Pharmaindustrie weltweit. Technologiepreis des Landes Mecklenburg-Vorpommern 2001.

  2. Enge Zusammenarbeit mit Kunden führte zu mehreren Veröffentlichungen als Erst- bzw. Mitautor im Bereich Proteomics mit Anwendungen u.a. in Mikrobiologie, Infektionsforschung, Neurobiologie.

  3. Mitarbeit bei der Proteomics Standards Initiative, einem Standardisierungsgremium. Für die 2D-Gel-Analyse wurden Richtlinien für das Reporting von Experimenten und ein standardisiertes Datenformat (XML) in Kooperation mit Wettbewerbern und Anwendern erarbeitet.

  4. Frühzeitige Einführung von Prozessen zur Qualitätssicherung in der Softwareentwicklung (unit testing, ticketing, continuous integration)

  5. Management mehrerer Produktgenerationen, vom Prototypen bis zum etablierten Produkt. Modernisierung u.a. durch Einsatz von dynamischen Programmiersprachen zur schnellen Entwicklung von Reports und Workflow-Komponenten.

Training und Lehre

Vermittlung von Grundwissen und Techniken in statistischer Datenanalyse ∗ Programmierung ∗ Training zur Anwendung von Standard-Software

Repräsentative Erfahrung:

  1. Mehrere Vorträge auf summer schools über Planung von Experimenten, statistische Auswertung, praktische Hinweise und Vermittlung grundlegender statistischer Verfahren

  2. Anwenderschulungen zu Grundlagen der Bildanalyse und Methoden der statistischen Auswertung und explorativen Datenanalyse.

  3. Vorlesung und Übungen zu Grundlagen der Informatik für Postgradualstudenten Informatik. Übungen zu Linearer Algebra, Computeralgebra und Differentialgleichungen für Studierende der Mathematik, Biomathematik und Biologie.

  4. Betreuung mehrerer Diplom- und Masterarbeiten in machine learning, Bildanalyse, Visualisierung und data mining.

Ausbildung / Qualifikation

Kontakt

Dr. Matthias Berth
R.-Breitscheid-Str. 28
17489 Greifswald

E-Mail: kontakt@matthiasberth.com