Die homogenen Einstellungsgewohnheiten von Big Tech schaden unseren Daten

In unserer verbraucherorientierten digitalen Welt haben wir eine Dringlichkeit hergestellt, innovativ zu sein und neue Produkte zu entwickeln. Mit dem Trend zum maschinellen Lernen und dem sich selbst verstärkenden Druck, schnell zu sein und Dinge zu verändern - ich meine zu "bauen" -, braucht Big Tech ständig Entwickler. Infolgedessen sind Software-Ingenieure zu einer sehr begehrten Ware geworden, die den Personalbestand dominiert und zu Bieterkriegen zwischen Unternehmen führt. Mit den wachsenden Ambitionen im Bereich des maschinellen Lernens wächst jedoch auch der Bedarf an Daten, wodurch ingenieurzentrierte Probleme zu disziplinübergreifenden Angelegenheiten werden. Projekte, die hochgradig mehrdeutige Daten liefern - wie z. B. Gesichtsausdrücke für die Gesichtsverfolgung - erfordern ein Verständnis der Daten, das über den Rahmen der Ingenieurwissenschaften hinausgeht; sie erfordern eine disziplinübergreifende Verbindung zwischen Ingenieurwissenschaften und dem komplementären Bereich, der angewendet wird. Daher ist es für Technologieunternehmen entscheidend, die Verantwortung für die Datenintegrität zu übernehmen, indem sie Fachexperten in den Produktentwicklungsprozess einbeziehen.

Während es nicht zur Kultur von Big Tech gehört, nicht-technische Rollen zu priorisieren, erkennen andere Branchen die Bedeutung von thematischem Fachwissen beim maschinellen Lernen an. Die Biotech-Branche zum Beispiel ist auf die Zusammenarbeit zwischen medizinischen Experten und Ingenieure. In diesem Fall ist die Notwendigkeit der Zusammenarbeit offensichtlich, aber in eher undurchsichtigen Bereichen der Spezialisierung ist die Notwendigkeit nicht immer offensichtlich. Wie bereits erwähnt, ist ein wichtiger Bereich, der unter Unklarheit und mangelndem Verständnis leidet, die Gesichtsverfolgung. Gängige Anwendungsfälle für die Gesichtsverfolgung - darunter Gesichtsfilter, Merkmalserkennung für die Produktwerbung (z. B. Lippenerkennung zum Testen von Lippenstiftprodukten oder Augenerkennung für Brillen) und Avatare - sind relativ harmlos. Wenn man jedoch weniger "niedliche" Anwendungsfälle wie Emotionserkennung, Verhaltensüberwachung und Täuschungserkennung mit Anwendungen in der Strafjustiz, im Versicherungssektor oder in der Welt der Cybersicherheit in Betracht zieht, wird die Leistung eines maschinellen Lernmodells umstritten; und wenn man es falsch macht, wird es gefährlich. Es gibt bereits viele bekannte Probleme mit der Gesichtserkennungstechnologie und ihrem unregulierten Einsatz in verschiedenen Ländern und Branchen. Da die Verfolgung des Gesichtsausdrucks eine Person nicht einfach nur identifiziert, sondern beobachtet und Rückschlüsse auf das Verhalten dieser Person zieht, kann sie weitaus invasiver sein.

Trotz der grundlegenden Bedeutung von Mimikdaten für die Gesichtsverfolgung versäumt es Big Tech oft, der Qualität von Mimikdaten Priorität einzuräumen. Produktmanager, technische Leiter, Benutzerforscher und Softwareingenieure verlassen sich häufig auf ihr eigenes oberflächliches Verständnis und Ad-hoc-Suchen, anstatt von der Tiefe des Verständnisses zu profitieren, das ein Experte bieten könnte. Software-Ingenieure sind zwar Meister im Erstellen von Algorithmen, haben aber oft nur ein oberflächliches Wissen darüber, was in den Daten steckt. In Anbetracht der hohen Arbeitsbelastung und der Konzentration auf das eigene Fachwissen ist es für Ingenieure nicht möglich, eine zusätzliche Expertise in der Untersuchung von subtilen Ausdrucksdaten oder der Beherrschung komplexer Konzepte in der Emotionsforschung zu entwickeln.

Die Bestimmung, welche Art von Daten benötigt wird, wie sie zu sammeln sind und wie sie zu kennzeichnen sind, ist eine delikater Prozess. Wenn Sie sich für die falschen Daten entscheiden, ist es egal, wie gut Sie sie sammeln oder beschriften. Wenn Sie auf nützliche Daten abzielen, diese aber unsachgemäß sammeln, werden sie ebenfalls fehlschlagen. Wenn Sie die Daten nicht präzise und/oder genau beschriften, wird es noch einmal scheitern. Aufgrund der morphologischen Unterschiede in den Gesichtsmerkmalen, der inhärenten Verzerrungen bei der Interpretation von Gesichtsausdrücken und der Kontroverse zwischen Emotionsforschern und Gesichtsanatomen muss jede Gruppe, die Algorithmen zur Gesichtsverfolgung mit Absichten entwickelt, die über das Ausprobieren vor dem Kauf von Lippenstift hinausgehen, Rechenschaft ablegen und die ethische Verantwortung für die Datenintegrität übernehmen.

Anstatt sicherzustellen, dass die Bausteine ihrer Algorithmen von denjenigen, die sie verwenden, gut verstanden werden, besteht der unglückliche Zustand von Big Tech darin, massenhaft Daten zu sammeln oder zu erwerben und sie an Drittanbieter von Etiketten weiterzugeben. Die Labeler sind typischerweise ausgelagert, auf Vertragsbasis, und fast immer unterbewertet. Um die Qualität der Labels zu überwachen, werden standardmäßig verschiedene Key Performance Indicators (KPIs) erstellt und durchgesetzt. Da Big Tech jedoch keine Ressourcen in Mitarbeiter investiert, die die Qualität der erweiterten Daten legitim überwachen können, sind die KPIs im Allgemeinen willkürlich und wenig aussagekräftig. Wenn die Ingenieure nicht über das nötige Verständnis verfügen, um grundlegende Wahrheiten zu erkennen, was messen sie dann eigentlich? Es gibt das unüberwachte Lernen. Und dann gibt es unüberwachtes Engineering.

Als ich für eine der Big Five-Firmen im Silicon Valley arbeitete, war ich immer wieder schockiert über die nonchalante Haltung gegenüber komplexen Gesichtsverfolgungsdaten. Obwohl meine Kollegen führende Köpfe in der Algorithmenentwicklung waren, besaßen sie ein oberflächliches Verständnis der Gesichtsanatomie, der zentralen Emotionskonzepte und des Ausdrucksverhaltens. Wie jedes andere hochspezialisierte Fachgebiet erfordert das Verständnis der Nuancen des menschlichen Ausdrucks jahrelanges, intensives Studium und Erfahrung. Trotz der Tatsache, dass ich der ansässige Experte für Mimik war, der sein Leben und seine Karriere dem Verständnis der Nuancen des menschlichen Gesichts gewidmet hatte, wurde ich regelmäßig von wichtigen Meetings und Planungssitzungen ausgeschlossen. Oft ertappte ich Mitarbeiter dabei, wie sie planlos veraltete und ungenaue Mimik-Referenzseiten durchforsteten (die ich derzeit neue Lösungen für hier) in Versuchen, einen Daten-Pipeline-Plan zusammenzuhacken. Mein Fachwissen wurde häufig in eine Aufsichtsrolle verbannt, und meine Fähigkeiten wurden für irrelevante Aufgaben wie die Klassifizierung von Barttypen und Haarfarben missbraucht. Wenn ich Trends in Dateninkonsistenzen aufzeigte oder Hardwareprobleme voraussah, wurde ich hingesetzt und mir wurde eine Lektion darüber erteilt, "wie maschinelles Lernen funktioniert".

Ich sehe viele Stellenausschreibungen, in denen X Jahre Erfahrung in der Gesichtsverfolgung gefordert wird, aber die Forderung nach entsprechender Erfahrung ist nicht genug. Genauso wie die frühere Arbeit eines Ingenieurs in der Medizintechnik ihn nicht dazu qualifiziert, ein Mediziner zu sein, qualifiziert die bloße Arbeit an der Tracking-Technologie einen Ingenieur nicht dazu, eine Autorität für Gesichtsausdrücke oder Emotionen zu sein. Wenn man sich mehr darauf konzentrieren würde, die richtigen Experten einzustellen, würde vielleicht der Kampf um Ingenieure mit seltener und spezifischer Erfahrung gemildert werden; eine solche Erleichterung könnte Raum für eine innovativere Zusammenarbeit zwischen den Ingenieuren und den komplementären Disziplinen schaffen, mit denen sie gepaart werden können.

Der Tunnelblick von Big Tech auf das Engineering ist eine fahrlässige Gewohnheit, die sich ändern muss. Während Software-Ingenieure in der Tat essentiell für den Prozess des maschinellen Lernens sind, haben uns die Ambitionen des maschinellen Lernens an einen Punkt gebracht, an dem wir die Notwendigkeit eines disziplinübergreifenden Vorgehens erkennen müssen. Daten für Systeme, die von Nuancen abhängig sind, sollten nicht auf die leichte Schulter genommen werden - insbesondere, wenn sie Potenzial für invasive Anwendungsfälle bergen. Würden Unternehmen das Fachwissen über Daten mit der gleichen Ehrfurcht und Unterstützung bewerten, wie sie es mit dem Fachwissen der Ingenieure tun, würden die Algorithmen und die Daten, aus denen sie aufgebaut sind, umfassender und weniger fehleranfällig wären. Ein Mangel an ganzheitlichen Datensystemen wird dazu führen, dass wir ungeregelte Produkte haben, die anfällig für Verzerrungen sind. Ein Ungleichgewicht der Investitionen in Richtung Algorithmen und weg von der Datenqualität wird zu verschwendetem technischen Aufwand, mangelhaften Produkten und der Verbreitung unethischer Technologie führen.

Legen Sie nicht alle Ihre Mitarbeiter in einen Korb. Stellen Sie verantwortungsvoll ein.

1 Gedanken zu „Big Tech’s Homogeneous Hiring Habits Are Harming Our Data“

Hinterlassen Sie einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.

Entwickelt für Studios und Teams

Lass uns reden.

facetheFACS@melindaozel.com