Narzędzia AI używane przez angielskie rady pomijają problemy zdrowotne kobiet, wynika z badania
Badania przeprowadzone przez London School of Economics (LSE) ujawniają, że narzędzia sztucznej inteligencji używane przez wiele rad w Anglii bagatelizują zdrowie fizyczne i psychiczne kobiet. Okazuje się, że podczas korzystania z AI, takiego jak model „Gemma” od Google, opisy przypadków mężczyzn zawierają więcej określeń takich jak „niepełnosprawny” czy „złożony” niż w przypadku kobiet. To może prowadzić do nierówności w opiece zdrowotnej, gdzie kobiety mogą otrzymywać mniej wsparcia. Badanie wykazało, że różnice te są istotne i mogą wpływać na decyzje dotyczące opieki. Dr Sam Rickman z LSE podkreśla, że potrzebna jest większa przejrzystość i testy na obecność biasu w AI, aby zapewnić sprawiedliwość w dostępie do opieki.
Więc, jeśli myślisz, że roboty będą nas lepiej rozumieć, pomyśl jeszcze raz! Wygląda na to, że nawet AI ma swoje preferencje – może czas nauczyć je o empatii, zanim zaczną organizować nasze życie!
Share this content:

Opublikuj komentarz