W naszym cyfrowym świecie, skoncentrowanym na konsumentach, wytworzyliśmy pilną potrzebę innowacji i rozwoju nowych produktów. Z trendem uczenia maszynowego i samonapędzającą się presją, aby poruszać się szybko i łamać - mam na myśli "budować" - rzeczy, Big Tech jest w ciągłym zapotrzebowaniu na budowniczych. W rezultacie, inżynierowie oprogramowania stali się bardzo pożądanym towarem, dominując w zatrudnieniu i wzniecając wojny przetargowe między firmami. Jednak wraz z rosnącymi ambicjami w zakresie uczenia maszynowego, rosną również potrzeby w zakresie danych, przekształcając problemy inżynierskie w zagadnienia interdyscyplinarne. Projekty dostarczające wysoce niejednoznacznych danych - takich jak wyrazy twarzy do śledzenia twarzy - wymagają zrozumienia danych wykraczającego poza zakres inżynierii; wymagają one interdyscyplinarnego połączenia inżynierii z dziedziną uzupełniającą. Dlatego też firmy technologiczne muszą wziąć na siebie odpowiedzialność za integralność danych, włączając do procesu rozwoju produktu ekspertów z danej dziedziny.
Podczas gdy w kulturze Big Tech nie ma miejsca na priorytetowe traktowanie ról nieinżynierskich, inne branże dostrzegają znaczenie specjalistycznej wiedzy w zakresie uczenia maszynowego. Na przykład, branża biotechnologiczna opiera się na współpracy pomiędzy ekspertami medycznymi oraz inżynierów. W tym przypadku, potrzeba współpracy jest oczywista, ale w bardziej niejasnych obszarach specjalizacji, potrzeba ta nie zawsze jest oczywista. Jak wspomniano wcześniej, jednym z głównych obszarów cierpiących z powodu niejasności i braku zrozumienia jest śledzenie twarzy. Typowe przypadki użycia śledzenia twarzy - w tym filtry twarzy, wykrywanie cech w reklamach produktów (np. wykrywanie ust do testowania szminek lub wykrywanie oczu w przypadku okularów) oraz awatary - są stosunkowo łagodne. Jednakże, jeśli weźmiemy pod uwagę mniej "urocze" przypadki użycia, takie jak wykrywanie emocji, monitorowanie zachowania i wykrywanie oszustw, mające zastosowanie w systemie sądownictwa karnego, sektorze ubezpieczeń lub w świecie cyberbezpieczeństwa - wydajność modelu uczenia maszynowego staje się sporna; a jeśli zostanie wykonana w niewłaściwy sposób, staje się niebezpieczna. Istnieje już wiele znanych problemów związanych z technologią rozpoznawania twarzy i jej nieuregulowanym stosowaniem w różnych krajach i branżach. Ponieważ śledzenie wyrazu twarzy nie służy jedynie identyfikacji osoby, ale raczej obserwowaniu i wyciąganiu wniosków na temat jej zachowania, może być znacznie bardziej inwazyjne.
Pomimo fundamentalnego znaczenia danych o wyrazie twarzy dla śledzenia twarzy, Big Tech często nie traktuje jakości danych o wyrazie twarzy priorytetowo. Menedżerowie produktu, menedżerowie inżynierii, badacze użytkowników i inżynierowie oprogramowania zazwyczaj polegają na własnym powierzchownym zrozumieniu i wyszukiwaniu ad hoc, zamiast korzystać z głębi zrozumienia, którą mógłby zapewnić ekspert. Choć inżynierowie oprogramowania są mistrzami w tworzeniu algorytmów, często posiadają jedynie pobieżną wiedzę na temat tego, co wchodzi w skład danych. Biorąc pod uwagę ich obciążenie pracą pod dużą presją i skupienie się na własnej specjalistycznej wiedzy, nie jest możliwe, aby inżynierowie rozwinęli dodatkową ekspertyzę w analizowaniu subtelnych danych dotyczących ekspresji lub opanowali złożone koncepcje w badaniach nad emocjami.
Określenie, jaki rodzaj danych jest potrzebny, jak je gromadzić i jak je oznaczać, jest zadaniem delikatny proces. Jeśli wybierzesz niewłaściwe dane, nie będzie miało znaczenia, jak dobrze je zbierzesz i oznaczysz. Jeśli wybierzesz użyteczne dane, ale zbierzesz je niewłaściwie, one również zawiodą. Zawiodą również, jeśli nie oznaczysz ich precyzyjnie i/lub dokładnie. Ze względu na morfologiczne różnice w rysach twarzy, nieodłączne błędy w interpretacji ekspresji oraz kontrowersje zarówno wśród badaczy emocji, jak i anatomów twarzy, każda grupa opracowująca algorytmy śledzenia twarzy, której intencje wykraczają poza wypróbowanie szminki przed zakupem, musi przyjąć odpowiedzialność i etyczną odpowiedzialność za integralność danych.
Zamiast zapewnić, że elementy składowe ich algorytmów są dobrze rozumiane przez osoby z nich korzystające, niefortunnym stanem Big Tech jest gromadzenie lub pozyskiwanie masowych ilości danych i przekazywanie ich osobom trzecim zajmującym się etykietowaniem. Etykieci są zazwyczaj zlecani na zewnątrz, na kontraktach i prawie zawsze niedoceniani. Aby monitorować jakość etykiet, standardem jest tworzenie i egzekwowanie różnych kluczowych wskaźników wydajności (KPI), ale ponieważ Big Tech nie decyduje się na inwestowanie zasobów w ludzi, którzy mogą legalnie nadzorować jakość zaawansowanych danych, KPI są na ogół arbitralne i mało wartościowe. Co więcej, jeśli inżynierowie nie są odpowiednio wyposażeni w głębię zrozumienia, aby zidentyfikować podstawowe prawdy, co właściwie mierzą? Istnieje uczenie bez nadzoru. A potem jest nienadzorowana inżynieria.
Kiedy pracowałem w jednej z firm Wielkiej Piątki w Dolinie Krzemowej, nieustannie szokował mnie nonszalancki sposób myślenia o złożonych danych dotyczących śledzenia twarzy. Choć moi koledzy byli wiodącymi umysłami w dziedzinie rozwoju algorytmów, posiadali płytkie zrozumienie anatomii twarzy, podstawowych koncepcji emocji i zachowań ekspresyjnych. Jak w przypadku każdego innego wysoce wyspecjalizowanego tematu, zrozumienie niuansów ludzkiej ekspresji wymaga lat intensywnych studiów i doświadczenia. Pomimo faktu, że byłem ekspertem w dziedzinie ekspresji twarzy, który poświęcił swoje życie i karierę na zrozumienie niuansów ludzkiej twarzy, byłem regularnie wykluczany z ważnych spotkań i sesji planowania. Często przyłapywałem współpracowników na chaotycznym przeglądaniu przestarzałych i niedokładnych stron referencyjnych dotyczących ekspresji (które obecnie dostarczanie nowych rozwiązań dla tutaj) w próbach poskładania planu rurociągu danych. Moja wiedza fachowa była często spychana do roli nadzorczej, a moje umiejętności były nadużywane do nieistotnych zadań, takich jak klasyfikowanie rodzajów zarostu i koloru włosów. Kiedy sygnalizowałem trendy w niespójności danych lub przewidywałem problemy sprzętowe, siadano ze mną i oferowano lekcję "jak działa uczenie maszynowe".
Widzę wiele ofert pracy, w których wymaga się X lat doświadczenia w śledzeniu twarzy, ale samo doświadczenie nie wystarczy. Tak jak wcześniejsza praca inżyniera w technologii medycznej nie kwalifikuje go do bycia lekarzem, tak samo praca nad technologią śledzenia nie kwalifikuje inżyniera do bycia autorytetem w dziedzinie ekspresji twarzy czy emocji. Gdyby bardziej skupiono się na zatrudnianiu odpowiednich ekspertów, być może walka o znalezienie inżynierów z rzadkim i specyficznym doświadczeniem zostałaby złagodzona; takie złagodzenie mogłoby zrobić miejsce dla bardziej innowacyjnej współpracy pomiędzy inżynierią a dyscyplinami uzupełniającymi, z którymi może być połączona.
Tunelowe widzenie Big Tech skupiające się na inżynierii jest lekceważącym nawykiem, który musi się zmienić. Podczas gdy inżynierowie oprogramowania są rzeczywiście niezbędni w procesie uczenia maszynowego, ambicje uczenia maszynowego doprowadziły nas do punktu, w którym musimy uznać potrzebę działań interdyscyplinarnych. Dane dla systemów opartych na niuansach nie powinny być traktowane lekceważąco - zwłaszcza, gdy kryją w sobie potencjał dla inwazyjnych przypadków użycia. Jeśli firmy doceniałyby wiedzę na temat danych z takim samym szacunkiem i wsparciem, z jakim traktują wiedzę inżynierską, algorytmy oraz dane, na podstawie których są one tworzone, byłyby bardziej kompleksowe i mniej zawodne. Brak całościowych systemów danych pozostawi nas z nieuregulowanymi produktami podatnymi na błędy. Nierównowaga inwestycji skierowanych w stronę algorytmów, a nie w stronę jakości danych, doprowadzi do zmarnowanego wysiłku inżynierskiego, wadliwych produktów i propagacji nieetycznych technologii.
Nie wkładaj wszystkich etatów do jednego koszyka. Zatrudniaj odpowiedzialnie.
1 komentarz do “Big Tech’s Homogeneous Hiring Habits Are Harming Our Data”