Chcesz się ze mną skontaktować? Masz temat do wywiadu, lokalne wydarzenie, które warto nagłośnić, a

Nazwa

E-mail *

Wiadomość *

piątek, sierpnia 22, 2025

Elon Musk i jego Grok – kiedy kreatywność zamienia się w wpadkę

Grok, chatbot Elona Muska, zaliczył poważną wpadkę. Do sieci wyciekło ponad 370 000 rozmów użytkowników. Co to oznacza dla bezpieczeństwa i zaufania do AI?


 Elon Musk postanowił stworzyć swoją własną sztuczną inteligencję, która miałaby być „bez cenzury”, szybsza i bardziej otwarta niż ChatGPT. Tak narodził się Grok, chatbot rozwijany przez firmę xAI. Miał być prawdziwym hitem – czymś, co udowodni, że Musk potrafi konkurować z największymi graczami na rynku.


Poważna wpadka

Niedawno ujawniono, że funkcja udostępniania rozmów w Groku miała poważny błąd. Każdy, kto kliknął „Share”, publikował swoją rozmowę publicznie – i to bez żadnego wyraźnego ostrzeżenia. Efekt? Ponad 370 000 rozmów trafiło do Google i innych wyszukiwarek.

Co wyciekło?


W ujawnionych konwersacjach znalazły się m.in.:
prywatne dane użytkowników
pytania dotyczące zdrowia i psychologii
instrukcje dotyczące tworzenia narkotyków czy bomb
nawet plany zabicia… samego Elona Muska

To nie tylko wstydliwa sytuacja, ale przede wszystkim ogromne zagrożenie dla prywatności.

Czego nas to uczy?


Ta wpadka pokazuje, że AI bez odpowiedzialności może być niebezpieczna. Kreatywność i odwaga to jedno, ale bezpieczeństwo i zaufanie użytkowników to zupełnie inna sprawa. Nawet największe nazwiska w branży mogą się potknąć, jeśli zlekceważą podstawy ochrony danych.

 A ty co sądzisz? Czy zaufałbyś AI, która potrafi „gadać bez cenzury”, ale nie dba o twoją prywatność?



Brak komentarzy:

Prześlij komentarz