Infolge der digitalen Transformation nimmt der Einsatz von Methoden der künstlichen Intelligenz im Kontext der Produktion stetig zu. Das übergreifende Ziel ist eine datengetriebene Produktion, in der Maschinen und Anlagen vollvernetzt Informationen austauschen können. Die Speicherungsmenge der Daten steigt dadurch kontinuierlich an. Stellt ein Unternehmen nun die Daten einem Dienstleister zum Training von neuronalen Netzen zur Verfügung oder kollaboriert mit anderen Unternehmen zum gemeinsamen Training eines Modells, können sensible Informationen offengelegt werden.
Die verbreitete Annahme, die Anonymisierung der Daten kann ausreichend sein, um die Privatsphäre zu gewährleisten, wurde bereits anhand mehrerer öffentlicher Beispiele widerlegt. Wenn Sie sich im Rahmen Ihrer Problemstellung also folgende Fragen stellen, bietet unser Leistungsangebot die korrekte Lösung für Sie:
In diesem Zusammenhang liefert das Forschungsgebiet Differential Privacy verschiedene Methoden, um individuelle, sensible Informationen zu schützen. Allgemein geschieht dies durch ein geeignetes Verrauschen der Daten, wodurch die Datensicherheit individueller Informationen gewahrt wird. Die Kernaussage der gesamten Datenbasis bleibt jedoch identisch. Die zu verwendende Methode hängt vom Datentyp, der Art des Trainings und der Teilnehmerkonstellation ab. Konkret ist es beispielsweise nach Anwendung von Differential Privacy Methoden nicht möglich, in einer Umgebung von mehreren IoT Geräten die Aussage zu treffen, ob ein konkretes Gerät zu dem Datensatz beigetragen hat. Die Gesamtaussage des Datensatzes zum Beispiel bezüglich des Stromverbrauchs von Maschinen oder der Qualität eines Produktes bleibt jedoch erhalten.
Durch die Methoden von Differential Privacy wird es Unternehmen folglich ermöglicht, Machine Learning Plattformen zu nutzen und mit anderen Unternehmen sicher zu kooperieren, unter Berücksichtigung der Datensicherheit.