Categories
Informationsteknologinyheter

Ingen människa, inga pengar: YouTubes plan för att demonetisera AI-genererade videor

Ingen människa, inga pengar: YouTubes plan för att demonetisera AI-genererade videor
© NextPit

Är AI-genererade YouTube-videor verkligen en saga historia? Google har just meddelat en ändring av intäktsreglerna på YouTube, vilket skulle förhindra att ett visst AI-genererat innehåll genererar pengar. Inga pengar, ingen AI, YouTubes magiska lösning ignorerar dock hjärtat i problemet med den här typen av video.

YouTubes nya politik träder i kraft den 15 juli 2025 och inte bara i USA, utan också i Frankrike. YouTube kommer dock inte att demonetisera alla AI-aktiverade videor direkt. Vad plattformen har i sina sevärdheter är vad den kallar repetitivt, inauthentiskt och massproducerat innehåll.

  • Läs också: Du bör inaktivera den här nya funktionen i din YouTube -app direkt!

Vad är en inauthentisk AI -video?

Åtminstone en gång i ditt liv har du stött på en YouTube -video eller kort med en generisk, robotröst som spelar över slumpmässiga klipp som plockats upp här och där. En avstängd video utan mervärde. Detta är vad YouTube verkar vilja attackera genom att insistera på begreppet äkthet.

“Attack” är ett stort ord, eftersom YouTube hävdar på dess officiell webbplatsatt “alltid ha krävt att intäktsinnehållet var original och autentiskt.” I en förklarande video hävdar YouTube-redaktören Rene Ritchie till och med att detta är en “mindre uppdatering av de långvariga YouTube-partnerprogrammets regler, utformade för att bättre upptäcka massproducerat eller repetitivt innehåll.”

Nyfiken slump eller inte, detta Rene Ritchie Video Ser mycket ut som AI Slop på grund av YouTubes ganska ungefärliga automatiska dubbning.

YouTube skriver in AI -problemet

YouTube verkar avsikt att minimera spridningen av låg-end AI-genererat innehåll på sin plattform. En spridning som går hand i hand med intäktsgenerering är den viktigaste motivationen bakom produktionen av denna typ av innehåll. YouTube skulle därför göra bra för att klargöra vad den anser vara inauthentisk, massproducerad och repetitiv innehåll.

Den 2,6 miljoner subscriber YouTube-kanalen “Bloo”, nyligen upptäckt av CNBCpassar till exempel räkningen. På den här kanalen finns det ingen mänsklig närvaro på skärmen. Istället adresserar en klumpigt animerad virtuell avatar publiken i en AI -röst som kallas på flera språk. Kanalen skräppostar minst en video om dagen. Avataren skriker på dig utan att någonsin pausa för att andas, över hela spelet videor på det populära videospelet för tillfället (GTA 5, Roblox eller annat). Detta är vanligtvis den typ av video som är utformad för barn, eller till och med unga tonåringar, för att göra dem beroende av att dumma dem.

Om YouTube redan uteslutit denna typ av innehåll från intäktsgenerering, som det hävdade, varför är detta inte fallet här? Och om detta blir fallet från 15 juli, kommer YouTube att skilja mellan denna typ av innehåll och videor av VTUBERS i allmänhet? Dessa innehållsskapare som bara visar sig på video via en virtuell avatar? VTUBERS kan producera originalinnehåll, med eller utan AI. Men i “bloo” -exemplet ovan är den enda mänskliga interventionen i produktionsprocessen skaparen (er) fingrarna när de kommer in i sina instruktioner.

AI -videor har mer än ett äkthetsproblem

Det faktum att YouTube skiljer mellan autentiskt och inauthentiskt AI -innehåll är vettigt. Visserligen förblir YouTubes uppfattning om äkthet mycket vag. Men att inte klumpa samman allt AI-skapat eller förstärkt innehåll är bra. Personligen älskar jag att följa en serie med titeln “Presidents Play Mass Effect” från Primteradiancy kanal.

Dessa videor har Barack Obama, Joe Biden och Donald Trump som om de pratade på Discord medan de spelade videospel från Mass Effect Saga. Manuset är humoristiskt, och du kan säga att en människa stod bakom skrivandet. Spelet skapas också av en människa. I början av varje video finns det en ansvarsfriskrivning som säger att det här är AI -röster. Kort sagt kan denna typ av innehåll betraktas som äkta.

Men utöver äkthet och originalitet utgör spridningen av AI -videor ett annat problem, och inte minst. Mer och oftare stöter jag på rasistiska eller sexistiska videor gjorda helt av en AI. Dessa videor presenteras ofta som skisser, och det tar bara några sekunder att inse det skadliga budskapet som förökas.

Utan att dela det med dig här visade exemplet som slog mig mest ett vitt par som satt på verandan framför sitt hus. Plötsligt springer en svart man genom sin trädgård med en TV under armen och försvinner i fjärran. Hustrun utropar, “Jag tror att det här är mitt”, med hänvisning till TV: n som förmodligen stulits av den löpande svarta mannen. Mannen ingriper sedan och säger “Men nej, älskling, vår är i trädgården och pekar på en annan svart man, hukade ner och dra ogräs.”

När AI används för att skapa rasistiska memes är det redan för sent

Uppenbarligen kommer YouTube inte att ifrågasätta om detta innehåll är äkta eller inte innan det demonetiserar det. Rasism och uppmaning till hat är mot YouTubes regler. Men detta illustrerar hur tillgängligt skapandet av rent AI -innehåll har blivit. Så tillgängligt att avancerade AI-videovideo-genereringsverktyg kapas för enkel skitposting.

Deutsche Welle ägnade ett program till detta ämne, men på Tiktok, inte YouTube. Många av dessa videor hade skapats med Googles VEO 3 -verktyg. Även om YouTube bagatelliserar vikten av den här uppdateringen och presenterar den som en enkel “mindre justering” eller förtydligande, är verkligheten helt annorlunda.

Att tillåta denna typ av innehåll att spridas och dess skapare kan tjäna på det kan i slutändan skada plattformens rykte och värde. YouTubes uppenbara lugn och brist på precision när det gäller begreppet äkthet förråder en önskan att slå hårt.

Vad tycker du om denna förändring i YouTubes policy? Har du också märkt en spridning av Low-End AI-innehåll? Har du svårt att skilja AI -sluttning från äkta innehåll? Kan en video som genereras av AI eller använda AI-genererade element vara äkta, enligt din åsikt?

Källa:
Google