Å være høflig mot AI -en din kan få deg til å føle deg varm og uklar, men det brenner også gjennom millioner i strøm – bokstavelig talt.
Openai -sjef Sam Altman har innrømmet at det å si «takk» og «takk» til chatbots som chatgpt er stabling opp titalls millioner dollar i beregningskostnader. Som svar på et frekt innlegg på X (tidligere Twitter), sa Altman at det var «titalls millioner dollar godt brukt.» Og hvorfor? «Du vet aldri,» la han til – en kommentar like deler kryptisk og komisk.
Men det som høres ut som en punchline med digital tid, har en veldig ekte miljømessig trøkk. EN Washington Post Undersøkelse fant at det å skrive en enkelt 100-ord AI-generert e-postbruk om 0,14 kilowattimer strøm – omtrent 37% av strømmen som et gjennomsnittlig spansk hjem bruker på en time, ifølge Repsol.
Microsofts designsjef Kurtis Beavers argumenterer imidlertid for at høflighet ikke er bortkastet – det er programmering med formål. «Å bruke høflig språk setter en tone for responsen,» forklarer han. Microsofts egen Interne notater antyder at generative AI speiler profesjonaliteten og klarheten i inngangen den mottar – som en ekstremt smart papegøye med manerer.
Likevel er det et større problem som brygger. Datasentre som driver disse AI -verktøyene, henter allerede rundt 2% av den globale strømmen – og at tallet øker.
A 2024 Undersøkelse avslørt 67% av amerikanerne er søtpratende AI. Over halvparten sa at det var «akkurat den rette tingen å gjøre», mens 12% håpet at det kunne skåne dem i et AI -oppstand.