
Pasażerowie warszawskiej komunikacji miejskiej przynajmniej raz mogli natrafić na reklamę aplikacji HomeGirl — która, zgodnie z zapewnieniami jej twórczyń, ma zapewniać bezpieczeństwo kobietom poprzez udzielenie przestrzeni do wzajemnej komunikacji między użytkowniczkami aplikacji.
I tutaj inicjatywę muszę pochwalić — ponieważ przynajmniej w przeszłości nagłówki wielu polskich portali dotyczyły np. przypadków gwałtów na pasażerkach taksówek zamawianych w popularnych aplikacjach, a pomoc w postaci choćby porozmawiania przez telefon mogłaby nawet uratować przed wystąpieniem takiej sytuacji.
Może i HomeGirl nie jest aplikacją adresowaną do przedstawicieli mojej płci — ale gdy wchodzą w grę hasła promocyjne typu „bezpieczeństwo”, to takie argumenty należy poddać stosownej weryfikacji. Ponieważ bezpieczeństwo powinno być zapewniane względem wszystkich zagrożeń, włącznie z tymi cyfrowymi.
Artykuł oparty jest wyłącznie na aplikacji w wersji na Androida. Z uwagi na brak posiadanego przeze mnie jakiegokolwiek sprzętu z „nadgryzionym jabłkiem na tyłach”, nie byłem w stanie zweryfikować, czy podobne rzeczy mają miejsce także w aplikacji na iOSa.
Na stronie głównej możemy przeczytać, że w aplikacji możemy porozmawiać z innymi użytkowniczkami HomeGirl, zadzwonić w razie potrzeby na numer alarmowy, czy też wyznaczyć trasę do domu z ominięciem punktów wskazujących potencjalne zagrożenia. Możemy też z poziomu aplikacji zadzwonić na „antyprzemocową linię” zarządzaną przez organizację SEXED.
Od strony koncepcji, aplikacji nie da się niczego negatywnego zarzucić — bo każdy/każda ma prawo do bezpieczeństwa, w szczególności będąc w podróży.
Ale to, co znajduje się w jej kodzie, oraz to, jak obowiązek informacyjny narzucany przez RODO (nie) jest spełniany — już tak.
Mając wstęp za sobą, przystępuję do pobrania pliku XAPK (taki był w stanie zaoferować mi serwis ApkCombo).

Jest to coś na wzór pliku AndroidManifest.xml, który doskonale znają twórcy aplikacji na Androida. Zgodnie z dokumentacją programistyczną, plik ten odpowiada za zdefiniowanie:
Ponieważ mamy do czynienia wyłącznie z plikiem manifest.json, jest to co prawda okrojona wersja wyżej wskazanego AndroidManifest.xml (nie znalazłem w pliku JSON np. informacji o konkretnych ekranach dostępnych w aplikacji), ale wystarczająca do choćby określenia tego, z jakich np. uprawnień aplikacja będzie chciała skorzystać.
Innymi słowy, są to wyłącznie metadane aplikacji, które są jawne w choćby Google Play Store (oczywiście wcześniej przetworzone w taki sposób, żeby były czytelne dla każdego).
Patrząc na zawartość tablicy permissions, moją szczególną uwagę przykuł jeden wpis — com.google.android.gms.permission.AD_ID.
Zaraz, co? Czy na pewno pobrałem właściwą aplikację?
Okazuje się, że Exodus Privacy również doszukał się tego uprawnienia. Co więcej, w wersji 1.0.2 — która również została przeanalizowana tym narzędziem — takiego jeszcze nie było (najnowszą w chwili pisania tekstu jest wersja 1.0.7).

Szybkie wyszukiwanie potwierdziło moje obawy — oficjalna strona pomocy od Google’a wskazuje, że uprawnienie o nazwie com.google.android.gms.permission.AD_ID odpowiada za dostęp do identyfikatora reklamowego.
Można odnieść wrażenie, że aplikacja — mimo iż chroni przed zagrożeniami w realnym świecie — nie zapewnia równie wysokiego poziomu ochrony prywatności w kontekście danych reklamowych.
To prowadzi z kolei do bardziej otwartego pytania o to, jak dane użytkowników mogą zostać wykorzystane w sposób, którego mogą nie być świadomi.
W 2012 roku — kiedy to obecna sytuacja w internecie, nie tylko w Polsce, ale też w reszcie świata, dopiero raczkowała — było dość głośno o amerykańskiej sieci sklepów Target, która stosowała różne techniki do uprawdopodobnienia, która część klientów mogła być w ciąży.
Osoby, wobec których podejrzewano zajście w ciążę, otrzymywały kupony zniżkowe na rzeczy związane z ciążą oraz pierwszymi dniami życia potomstwa.
Skąd takie rzeczy można było wywnioskować? Działo się to na podstawie list zakupów. I tak, dla przykładu gdy jeden z potencjalnych klientów (lub bardziej konkretnie, klientek) Targeta kupuje suplementy uzupełniające witaminy czy minerały, w przypadku jednego ze scenariuszy szansę na to, że taka osoba może być już w ciąży, wyliczono w tamtym czasie na 87%.
W jednej sytuacji doszło nawet do tego, że jeden z ojców nastoletnich córek pokłócił się z kierownikiem jednego z Targetów o te kupony — co doprowadziło do tego, że kierownik przeprosił ojca za zaistniałą sytuację.
Choć miało to miejsce 6 lat temu przed wdrożeniem w życie RODO w Europie, podobna sytuacja prawie 14 lat później by była obarczona restrykcyjnymi sankcjami, przynajmniej gdyby miało to miejsce w kraju członkowskim Unii Europejskiej.
Oczywiście mówię o tym czysto teoretycznie, bo rzeczywistość jest zgoła inna.
Postanowiłem się zagłębić w inne aspekty prawno-techniczne aplikacji. Standardowo, sprawdźmy, jakie zapisy kryją się w polityce prywatności i rozbierzmy je na czynniki pierwsze.
Przykładowo, w rozdziale 3., który opisuje zakres zbieranych danych, możemy się dowiedzieć, że aplikacja przetwarza:
Na plus możemy zaliczyć podanie konkretnych okresów retencji danych — coś, z czym nie miałem się okazji wbrew pozorom często spotykać, czytając polityki prywatności różnych serwisów internetowych.
Naturalną koleją rzeczy jest zadanie pytania, jak aplikacja się takimi danymi posługuje. Czy w aplikacji konwersacje są jakkolwiek szyfrowane? Jeżeli tak, to jakim protokołem? Czy jest to Signal Protocol (który swoją drogą uznawany jest za „złoty standard” szyfrowanej komunikacji), czy własna implementacja (której wdrożenie w takich aplikacjach powinno być bardzo dobrze przemyślane)?
I najważniejsze — czy „usunięte” rzeczywiście znaczy słynne „nie mamy pańskiego płaszcza, i co pan nam zrobi”?
Zadałem siedem pytań (listę możesz rozwinąć poniżej), które są związane z m.in. tematyką aplikacji, ale też niektóre zasugerowały skorzystanie w miarę możliwości z otwartoźródłowych zamienników.
Rozwiń listę pytańSamodzielna weryfikacja, jak funkcjonuje aplikacja, jest dla mnie niemożliwa z trzech powodów.
Pierwszy powód — mam w dowodzie literę „M” (więc pozostaje mi oddelegowanie tego do jakiejkolwiek mojej przyjaciółki, lub powołanie się na komentarz od strony reprezentantek aplikacji). Drugi powód — aplikacja się blokuje bez zainstalowanego modułu Google Mobile Services (testowałem zarówno na moim głównym Samsungu oraz starszej Motoroli z zainstalowanym LineageOS 18.1 — oba te telefony nie mają wspomnianego GMS). Trzeci powód — ponieważ nie ma gdziekolwiek dostępnego kodu źródłowego, aplikację musiałbym zdekompilować, a nie wiem, jak zareagowałyby na to twórczynie (i zważając na ograniczone fundusze w „Kontrabandzie”, nie chciałbym ryzykować otrzymania nazajutrz pozwu).
Twórczynie aplikacji (fundacja „IT Girls”) nie udzieliły mi na czas publikacji artykułu odpowiedzi (pytania wysłałem 5 października 2025 roku). Niniejszy artykuł zaktualizuję, gdy taką otrzymam.
Zdjęcie tytułowe zostało oparte o logotyp aplikacji HomeGirl. Treść artykułu powstała na podstawie źródeł własnych, z wyjątkiem sekcji o amerykańskiej sieci sklepów Target, gdzie powołano się na następujące źródła zewnętrzne:
„Kontrabanda” jest portalem, na którym nie ma reklam, nadmiaru treści sponsorowanych ani też clickbaitów. Powołują się na nas media takie jak oko.press, CyberDefence24, czy organizacje takie jak Polskie Towarzystwo Informatyczne. Niemniej naszym jedynym źródłem utrzymania się są na ten moment dobrowolne datki.
Wesprzyj naszą działalnośćNie ma żadnych komentarzy pod tym wpisem.
Preferuj: