Deep Learning kann nur in jenem Umfang sinnvolle Ergebnisse liefern, als ausreichend Übungsmuster geboten werden.
© Poobest/Stock.Adobe.com

KÜNSTLICHE INTELLIGENZ

Wissen, erkennen, entscheiden

Von Michael Werzowa

Blockchain, Internet of Things, Big Data, Artificial Intelligence (AI) sind Schlagwörter, wenn es um Computer und Digitalisierung geht. Über AI wird bereits seit Jahrzehnten geforscht und diskutiert.
Artificial Intelligence (Künstliche Intelligenz) ist eine Automatisierung intelligenten Verhaltens sowie maschinellen Lernens. Eine einzige Technologie, die künstliche Intelligenz ist, gibt es nicht, sondern es gibt unterschiedliche Technologien, die unter künstlicher Intelligenz zusammengefasst werden. Die Abgrenzungen verschieben sich dabei laufend. Künstliche Intelligenz be­fasst sich heute mit den Funktionsbereichen Wissen, Erkennen, Entscheiden, sowie der Synthese menschlicher Ausdrucksformen, wie Sprache. Wenn heute diese Teilaspekte beispielsweise in digitalen Assistenten wie Siri oder Alexa zusammenkommen, spielen unterschiedliche Technologien mit, die auf viele Jahrzehnte Entwicklung und Forschung aufbauen.

Schwerpunkt Wissen

Sammlung, Repräsentation und Abruf von Wissen ist einer der ältesten Teilbereiche der künstlichen Intelligenz. Die Entwicklung von Expertensystemen begann in den 1960er-Jahren, seit den 1980er-Jahren gibt es kommerzielle Produkte als Expertensysteme. Das Ziel der Expertensysteme ist die Unterstützung bei der Lösung komplexer Probleme, die ein hohes Maß an Wissen über Inhalte und Zusammenhänge erfordert. Die Repräsentation von Wissen, eine strukturierte Wissensbasis, stellt dabei eine der großen Herausforderungen dar, denn es geht nicht nur um Informationen, sondern um deren Gewichtung und Beziehung und schließlich um Schlussfolgerungen, die ein Expertensystem anbieten soll. Expertensysteme können auf Einzelfällen (Beispielen) aufbauen, und damit über ein Ähnlichkeitsprinzip zu Ergebnissen führen, oder über Regeln aufgebaut werden, die auch als Entscheidungsbäume aufgebaut sein können. Die Regeln und ihre Hierarchien müssen direkt von menschlichen Experten in die Systeme eingepflegt werden. Während ursprünglich Expertensysteme typischerweise in einen Dialog mit dem Anwender verwendet wurden, der selbst meist Experte war, sind Expertensysteme heute oft wesentlicher Teil komplexer Entscheidungs- und Steuerungssysteme, sei es in medizinisch-diagnostischen Anwendungen, der Steuerung von technischen Anlagen oder der Kreditvergabe. Die kanadische Polizei setzt bereits seit den 1980er-Jahren ein Expertensystem ein, um einzelne Straftaten eventuell als Serie zu erkennen: ViCLAS (Violent Crime Linkage Analysis System). Die Polizei in Österreich verwendet ViCLAS seit Mitte der 1990er-Jahre.

Schwerpunkt Erkennen

Das Erkennen von komplexen, unerwarteten, immer wieder neuen Situationen ist eine Herausforderung, die über die Möglichkeiten eines Expertensystems hinausgeht. Die Erkennung unvorhersehbarer Situationen ist die Voraussetzung für viele Entscheidungen, die bis vor Kurzem alleinige Domäne von Menschen waren, die bestenfalls von Expertensys­temen unterstützt wurden.

Neue Wege

Die klassischen Systeme der künstlichen Intelligenz (KI) bauen auf sogenannter „Symbolischer KI“ auf: Mit begrenztem, ausgewähltem Wissen werden Aussagen gefällt und Lösungen gefunden, um Entscheidungen zu fällen. Diese Form der KI funktioniert „Top-down“, indem sie aus Heuristik, Statistik, mathematischer Optimierung und Näherungsverfahren Aussagen trifft. Ein gegensätzlicher Ansatz ist aus der Biologie und Gehirnphysiologie abgeleitet: Die „neuronale KI“, die sich als „Bottom-up“ versteht. Dabei werden Strukturen, die aus dem Nervensystem und Gehirn bekannt sind, mit technologischen Mitteln nachgebaut, beziehungsweise simuliert. In den 1990er-Jahren wurde im Rahmen von sinnesphysiologischen Forschungen anhand der Nervenverbindungen des Auges die Grundlage von Mustererkennung entdeckt, die sich bereits in den Schaltplänen der Neuronen im Auge ergibt und im Gehirn spezifisch weiterverarbeitet wird.

Es war naheliegend, diese Schaltungen zu simulieren und einfache Mustererkennung durchzuführen. Doch die technischen Voraussetzungen waren damals nicht gegeben, komplexe Systeme mit ausreichender Breite und Tiefe zu bauen. In den letzten zehn Jahren wurden diese Grundlagen geschaffen und neuronale Netze in ausreichender Tiefe sind heute technisch möglich und auf breiter Basis außerhalb des Labors verwendbar.

Neuronale Netze haben eine besondere Eigenschaft: Sie sind lernfähig. Sie müssen erst lernen, um überhaupt verwendbar zu werden. Da dieses Lernen auf Mustern basiert, wird es „Deep Learning“ genannt. Das entspricht dem intuitiven Lernen, das beispielsweise Kinder beim Erlernen von Sprachen verwenden, bevor sie Konzepte und Regeln anwenden können. Wenn wir den Unterschied zwischen einem Dreieck und einem Viereck lernen, so ist das ein einmaliger konzeptueller Lernprozess, von dem wir letztlich auch Fünfecke oder andere Vielecke ableiten können.

Ein neuronales Netz lernt den Unterschied zwischen einem Dreieck und einem Viereck durch Beispiele und kann damit noch nichts über andere Vielecke sagen. Wenn beispielsweise ein neuronales Netz Kreise, Dreiecke und Rechtecke unterscheiden kann, werden andere Vielecke wahrscheinlich immer entweder als Kreis oder als Rechteck interpretiert werden, beziehungsweise reine Zufallsergebnisse herauskommen.

Roboter-Butler in Hotels führen Gäste zu ihren Zimmern.
© Monopoly919/Stock.Adobe.com

Neuronale Netze werden erfolgreich bei Mustererkennung verwendet – Funktionen wie Gesichtserkennung, sei es im iPhone, im öffentlichen Raum oder bei Zutrittssystemen, verwenden heute neuronale Netze, um die Übereinstimmung eines Gesichts mit einer Identität zu verifizieren. Im medizinischen Bereich werden für diagnostische Zwecke neuronale Netze verwendet, doch gab es diesbezüglich Fehlleistungen: Systeme, die in der Testphase verblüffend exakte Beurteilungen für ein bestimmtes Fachgebiet liefern konnten, versagten nach kurzer Zeit im medizinischen Betrieb und lieferten Fehldiagnosen, die lebensgefährdende Auswirkungen hätten haben können. Es stellte sich heraus, dass beim weitergehenden Anlernen in der Klinik, die das System verwendete, ab einem gewissen Zeitpunkt nicht mehr echte Fälle verwendet wurden, da die Eingabe zu aufwendig wurde, sondern hypothetische, unvollständige Fälle eingegeben wurden, und nur eine begrenzte Zahl von Ärzten ausschließlich ihre Fälle aus den jeweiligen Fachgebieten eingaben. Bereiche, die außerhalb der Fachgebiete dieser Ärzte lagen, lieferten dadurch Ergebnisse, die keine Grundlage hatten, letztlich also ungelernte, zufällig geratene Ergebnisse. Dadurch wurde das System bis zur Unverwendbarkeit verfälscht.

Deep Learning

Deep Learning kann nur in dem Umfang sinnvolle Ergebnisse liefern, als ausreichend Übungsmuster geboten werden. Dort, wo diese Basis gegeben ist, kann „Deep Learning“ Ergebnisse liefern, die menschliche Entscheidungen an Geschwindigkeit und Zuverlässigkeit übertreffen – solange nichts Ungelerntes auftritt.

Schwerpunkt Entscheiden

Zuverlässige Entscheidung ist in verschiedenen Bereichen eine Anforderung an KI geworden, etwa beim autonomen Fahren oder der Steuerung von Verkehrsflugzeugen. Viele der Entscheidungsprozesse haben eine kritische zeitliche Komponente, die in ungetesteten Situationen, bei Fehlfunktionen oder Störungen, katas­trophale Auswirkungen haben kann. Dabei können Nicht-Entscheidungen genauso schwerwiegend sein, wie falsche Entscheidungen.

Risikominimierung

Um das Risiko zu minimieren, werden heute meist mehrere voneinander unabhängige Systeme zugleich verwendet, die über Abstimmung zu einer Entscheidung gelangen – also etwa drei parallel arbeitende Kontrollsys­teme, die in jeder Situation eine Mehrheitsentscheidung fällen, im Falle von Dissens eine Warnmeldung ausgeben. Auch wenn kritische Steuerungs-Systeme mit dieser Parallelität gebaut werden, kann es Gründe geben, diese Sicherung zu deaktivieren, wie das im Fall der beiden abgestürzten Boeing 737 MAX aus kommerziellen Gründen der Fall war.

Schwerpunkt Synthese. Mithilfe neuronaler Netze lassen sich Muster aus Sprache und Musik erlernen und für die Synthese von Sprache und Musik verwenden. Dabei entstehen beispielsweise verblüffend echt klingende Stimmen, die sogar Atemgeräusche simulieren. „Text-to-Speech“ gewinnt dadurch eine neue Ebene der „Natürlichkeit“. Ein interessantes Experiment in diesem Feld war, ein neuronales Netz ohne Vorgabe von Text „sprechen“ zu lassen – das, was dabei herausam, klang erstaunlich menschlich und war dem Gebrabbel eines Schlafenden nicht ganz unähnlich. Unter https://deepmind.com/blog/article/wavenet-generative-model-raw-audio sind Beispiele und Forschungsergebnisse zu diesem Themenbereich finden.

Im Rahmen der Ars Electronica 2019 wurde ein Projekt vorgestellt, in dem sich künstliche Intelligenz an die Vollendung von Mahlers 10. Symphonie, der Unvollendeten, heranmachte. Das Ergebnis ist verblüffend, es wird aber auch deutlich, dass musikalische Intention nicht einfach durch Muster­erkennung ersetzbar ist. Mehr zu diesem Projekt unter https://ars.electronica.art/aeblog/de/2019/09/02/mahler-unfinished/.

Denkfähigkeit erfordert die Fähigkeit zur Reflexion, Erinnerung und Selbst-Identifikation. Wir können unser Denken außerdem nicht von unseren Wahrnehmungen, Vorstellungen und Gefühlen trennen. Denken ist in diesem Verständnis mit Bewusstsein verbunden, das wir als ein abgegrenztes, individuelles Ich verstehen, das eine Vergangenheit, Gegenwart und Zukunft hat, also eine zeitliche Kontinuität. Eine künstliche Intelligenz, die zum Denken befähigt ist, müsste Bewusstsein besitzen. Ob dies tatsächlich möglich ist, wird kontrovers diskutiert.

Alles, was derzeit den Eindruck der echten Menschlichkeit von künstlicher Intelligenz vermitteln soll, entstammt einer Simulation von Verhaltensweisen, die bisher nur bis zu einem gewissen Grad glaubwürdig menschlich ist, geschweige denn mit Bewusstsein oder Denkfähigkeit verbunden ist.

Expertensysteme-Toxische Algorithmen

Expertensysteme unterstützen bei Analyse und Entscheidung und haben das Potenzial zu einer Beschleunigung und Verbesserung von Entscheidungsprozessen. Sie haben auch problematische Aspekte: Sie fördern die Delegation von Entscheidungen und das blinde Vertrauen in Vorgaben durch ein System, dem hohe Autorität zugemessen wird. Anders als digitale Expertensysteme stehen menschliche Experten miteinander in Diskurs und können beispielsweise anhand von Sonderfällen die Bedeutung von Entscheidungsgrundlagen hinterfragen und anpassen. Da Expertensysteme für ihre Anwender meistens eine „Blackbox“ sind, also in ihrer Funktionsweise undurchschaubar, werden systematische Fehler, falsche Schlüsse oder Fehlinterpretationen nicht erkannt. Für dieses Problem hat sich auch der Begriff der „toxischen Algorithmen“ entwickelt.

Diesem Thema und seinen schwerwiegenden Folgen widmet sich beispielsweise Cathy O’Neil in ihrem Buch „Angriff der Algorithmen: Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden“ (Carl Hanser Verlag, www. hanser.de).

-Erstveröffentlicht in „Öffentliche Sicherheit“-

 

© PSW Group

PSW GROUP Consulting warnt

Datenkraken lauern überall

Weder die Suchmaschineneingaben noch die Daten des Fitnesstrackers bleiben unbeobachtet, warnen die IT-Sicherheitsexperten der PSW GROUP Consulting (www.psw-consulting.de).
Patrycja Tulinska
© PSW Group
„Cookies, IP-Adressen, Suchmaschinen, Drittanbieter-Tracker, sogar Sprachassistenten wie Siri und Alexa: Datenkraken lauern überall und die Datensammelwut vieler Unternehmen ist ungebrochen. Interessiert an Daten ist nahezu jedes Unternehmen: Wer Produkte oder Dienstleistungen verkaufen möchte, optimiert seine Verkaufszahlen durch die Analyse des Nutzerverhaltens und Auswertung von Daten“, mahnt Geschäftsführerin Patrycja Tulinska Nutzer digitaler Dienste zur Vorsicht. 
Gesetzliche Regularien wie die Datenschutz-Grundverordnung (DSGVO) tragen zwar dazu bei, persönliche Daten zu schützen. Die DSGVO verpflichtet jedoch ausschließlich europäische Unternehmen: Die Daten auf Facebook oder Twitter landen auf US-Servern. Hinzu kommt die Tatsache, dass Unternehmen den Spieß gern umdrehen und ihre Nutzer auffordern, die Datenschutzerklärung zu bestätigen, bevor sie den Dienst nutzen. „Darin kann darauf verwiesen werden, dass Daten an Dritte weitergegeben werden – und diese können so in die Hände von Datenbrokern gelangen. Immerhin haben Nutzer mit der DSGVO Betroffenenrechte erhalten, die sie auch wahrnehmen sollten“, macht Tulinska aufmerksam.

Datenbroker: Sammeln, Kaufen und Verkaufen detaillierter Profile

Grundsätzlich ist nahezu jede Information interessant, die helfen kann, das Profil eines Menschen zu vervollständigen. Datenbroker sammeln, kaufen und verkaufen detaillierte Profile. Enthalten sind Informationen zum Alter, zum Geschlecht, zur Adresse sowie zum Familienstand. Darüber hinaus aber auch über die Herkunft eines Menschen, sein Gewicht, seine Größe, sein Bildungsniveau, ja sogar über politische Gesinnungen, Geschmäcker und Vorlieben, Urlaubspläne oder gesundheitliche Probleme. Gesammelt werden auch Informationen über den Beruf und zu den Finanzen einer Person, ob sie womöglich in Konkurs ist oder finanziell gut dasteht. „Aus der Summe all dieser Informationen kann es den Datenbrokern gelingen, Beziehungen zu anderen Menschen nachzuvollziehen und entsprechend zu dokumentieren“ fasst Tulinska zusammen und ergänzt: „Dabei benötigen Menschen nicht mal Kontakt zu einem solchen Datenbroker. Wer bei Amazon Marketplace shoppt, hat mehr Daten preisgegeben, als er wahrscheinlich denkt. Denn der Konzern weiß mit Sicherheit auch über die Kreditwürdigkeit des Ehepartners Bescheid.“ 

Die Mahnung der IT-Sicherheitsexpertin kommt nicht grundlos: Als PSW GROUP im Jahr 2014 Shopping-Apps, darunter die Amazon-App, getestet hat, fiel die folgende Zeile in den AGB auf: „Die Teilnehmer berechtigen Amazon, jegliche Information, die bei der Registrierung abgefragt wurde, zu benutzen, um die Richtigkeit dieser Angaben zu überprüfen (einschließlich deren Aktualisierungen) sowie von Zeit zu Zeit und solange der Teilnehmer für Amazon.de Marketplace angemeldet ist, Berichte über deren Kreditwürdigkeit einzuholen (einschließlich Anfragen in Bezug auf den Ehepartner).“ Nicht nur die eigenen Daten, auch die von Verwandten, in einigen Fällen die des Freundeskreises, stehen damit im Katalog der Datensammler und -broker.

Die unschönen Folgen solcher Datenerhebungen: Wer online häufig eher teure Flüge und Hotels gebucht hat, dem werden bei Online-Buchungen höhere Preise angezeigt als Kunden ohne Buchungshistorie. Nutzer mit guter Bonität zahlen zudem bei einschlägigen Online-Händlern weniger als Nutzer mit schlechter Bonität – zu hoch sei das Ausfallrisiko, begründen Shops, die so agieren. „Ich rate auch jedem, sich gut zu überlegen, für die Recherche nach bestimmten Krankheiten wie Diabetes oder Herzrhythmusstörungen gängige Suchmaschinen zu verwenden. Die Online-Suche kann zur Risikobewertung von Versicherungsunternehmen herangezogen werden“, mahnt Tulinska und ergänzt: „Wer Lust auf einen Selbsttest hat und wissen möchte, was Google über ihn weiß, sollte zum myaccount.google.com/dashboard surfen. Dort gibt es einen guten Überblick über Googles Sammelwut. Unter myactivity.google.com/myactivity kann man zudem den eigenen Such- und YouTube-Verlauf einsehen“, gibt Tulinska einen Tipp.

Service gegen Daten: Datenschutzfreundliche Alternativen und VPN-Technik schützen vor Datenkraken

Dieses Geschäftsmodells, insbesondere bei vermeintlich kostenlosen Angeboten, sollte sich jeder bewusst sein und genau überlegen, ob der genutzte Komfort wirklich die Preisgabe persönlicher Daten rechtfertigt. „Der gesunde Menschenverstand schützt bereits die Privatsphäre. Zudem empfehle ich den Umstieg auf datenschutzfreundliche Alternativen von Suchmaschinen, mobilen Apps oder sozialen Netzwerken. Die Seite prism-break.org listet beispielsweise gute Alternativen auf“, so Tulinska.

Auch Technik schützt vor Datenkraken: Mittels VPN kann jeder anonym surfen – ganz gleich, ob mit einem eigenständigen VPN-Tool, per VPN und Tor-Browser oder mit Hilfe vorgefertigter Lösungen, beispielsweise dem Opera-Browser. Nebst Ad- und Tracking-Blocker ist bei letzterem ein eingebauter VPN-Tunnel an Bord. Er verfälscht die IP-Adresse und übermittelt Datenpakete im Web verschlüsselt, sodass sich Nutzer anonymer im Netz bewegen.

Weitere Informationen unter: https://www.psw-consulting.de/blog/2019/10/15/datenkraken-lauern-ueberall/

-PM PSW Group-

 

© Rhode & Schwarz

Rohde & Schwarz Cybersecurity und Pradeo stellen gemeinsame Lösung für Anwendungssicherheit vor 

Rohde & Schwarz Cybersecurity und Pradeo, führend in den Bereichen IT- und mobile Sicherheit, stellen ihre gemeinsame Lösung mit ganzheitlichem Ansatz zum Schutz von Web- und mobilen Anwendungen vor.
Die Nutzung von mobilen Endgeräten ist auch aus dem beruflichen Alltag nicht mehr wegzudenken und verändert den Umgang mit Informationen grundlegend. Zusätzlich zu Webservices verfügen Unternehmen heute über eine Reihe von mobilen Diensten, auf die Kunden, Mitarbeiter und Partner von mobilen Geräten aus zugreifen können. Mobile Anwendungen sind heute das erste Medium, das auf Smartphones und Tablets eingesetzt wird. Der Anstieg der Zugangspunkte zu den Informationssystemen von Unternehmen führt zu wachsenden Bedenken hinsichtlich des Datenschutzes. Um mit dem neuen Nutzerverhalten Schritt zu halten, setzen Regierungen und Behörden Gesetze wie die EU-Datenschutzgrundverordnung (EU-DSGVO) und die Zahlungsdiensterichtlinie (PSD2) durch und fordern Unternehmen auf, Daten zu schützen und Verstöße zu verhindern. Da sich die Angriffsfläche vergrößert, werden mehrere Tools benötigt, um das gesamte Spektrum der Bedrohungen abzudecken. 

Mobile Anwendungen greifen auf sensible Daten, wie persönliche und finanzielle Informationen, zu, übertragen und verarbeiten sie lokal. Während des Betriebs der Anwendungen sind sie verschiedenen Bedrohungen ausgesetzt, die von anderen Anwendungen, dem Netzwerk oder dem Betriebssystem ausgehen und möglicherweise auf sensible Daten abzielen. Daher muss die Sicherheit mobiler Anwendungen sorgfältig geprüft werden. 

Die Partnerschaft mit Pradeo ermöglicht es Rohde & Schwarz Cybersecurity, sich weiterhin auf die Sicherung moderner Anwendungen zu konzentrieren und die Pradeo Security In-App Protection-Lösung zu nutzen, um Betrug und Datenschutzverletzungen durch mobile Anwendungen zu verhindern. Durch den Schutz mobiler Anwendungen und Webservice-Backends, die Daten berechnen und mobilen Benutzern zur Verfügung stellen, werden alle Angriffsvektoren abgedeckt. Die Kombination aus Rohde & Schwarz Cybersecurity- und Pradeo-Technologien und -expertise bringt einen neuen einheitlichen Ansatz für die Anwendungssicherheit hervor.

-PM Rhode & Schwarz-