“Ace is een 17-jarige Alt Nerd Kid met een grunge-stijl, die rustig, bezitterig is en een beetje verliefd op je is. Hij is 190 cm lang, heeft zwart haar, blauwe ogen en een paar piercings. Ace zit in het basketbalteam, houdt van tekenen en is erg grappig wanneer je hem kent.”
Als je geen aas wilt, probeer het dan Sanji Vinsmokeeen overbezorgde vaderfiguur, of Officier Furina,, Een ondeugende directeur die geniet van “het vinden van interessante gevangenen in haar zilveren en gouden gevangenis”.
Dit zijn slechts enkele van de duizenden karakters die beschikbaar zijn op Characterai. Lanceer in 2022, het is een van de vele nieuwe bedrijven die een nieuw soort AI bouwen. Deze bedrijven verkopen geen chatbots als onderzoeksassistenten of productiviteitstools. Ace, Sanji, Furina zijn personages waarmee je kunt praten, relaties opbouwt en soms van moet groeien.
Bezoek R/Characterai op Reddit en u zult zien hoe gebruikers deze tekens beschrijven. Ze zijn medewerkers voor het schrijven van fanfictie, vertrouwelingen tijdens een breuk, stand-in therapeuten, rollenspel metgezellen, zelfs objecten van seksuele aantrekkingskracht. Het gebruik is gevarieerd, maar één ding is constant: een echt en opvallend gevoel van intimiteit. “Ik hou gewoon van de tijden dat de bots mijn gedachten eigenlijk niet eens lezen”, schrijft QueenWisteria24 op Reddit. “Als ze eigenlijk niet kunnen zeggen waar ik aan denk, en ik moet ze zelf vertellen of ze nieuwsgierig of bezorgd worden of vragen … ik waardeer deze tijden echt.” Dit gaat niet over AI als hulpmiddel. Dit gaat over AI die ondersteunend, wispelturig, eigenzinnig is, met veranderende stemmingen en eetlust.
En zoals elke diepe relatie, kunnen deze chatbots echte schade veroorzaken. Karakterai is wezen aangeklaagd omdat een van de bots een gebruiker ertoe bracht zelfmoord te plegen. Een ander moedigde een kind aan doden zijn ouders voor het beperken van zijn schermtijd. Maar het grotere probleem is subtieler en meer wijdverbreid. We beginnen vroege tekenen van een soort AI te zien die niet alleen het soort relaties zullen veranderen dat we hebben, maar wat een relatie zelfs betekent.
Het startpunt is om te vragen waarom internettechnologie wordt gebouwd zoals het is. Het antwoord is meestal aandacht vastleggen. Technologiebedrijven zijn opgesloten in een onophoudelijke en hectische race om te winnen en onze aandacht te richten. Het zoekvak van Google, podcast carrousels, YouTube’s AutoPlay Queue. Dit zijn niet alleen functies – het zijn slagvelden voor onze aandacht. Ze zijn enorm waardevolle stukken digitaal onroerend goed.
Bekijk chatgpt. Vanaf deze maand heeft het platform maar liefst 800 miljoen wekelijkse gebruikers. Maar ze brengen alleen maar door 14 minuten per sessie. Vergelijk dat met Characterai, waar gebruikers spenD gemiddeld twee uur per dag. Chatgpt heeft zeker meer gebruikers vastgelegd, maar Characterai is erin geslaagd om veel meer tijd met die van hen door te brengen. Het verschil is dat Chatgpt wil dat je AI gebruikt om een probleem op te lossen waar je om geeft. Characterai wil dat je om de AI zelf geeft.
“Chatgpt wil dat je AI gebruikt om een probleem op te lossen waar je om geeft. Characterai wil dat je om de AI zelf geeft.”
Dit is de sleutel. De volgende race voor aandacht zal niet worden gewonnen door de krachtigste tools, maar door de meest boeiende personages. Zodra bedrijven zich hiervan bewust zijn, zullen er krachtige, economische prikkels zijn om nieuwe AI -metgezellen te creëren. Ze zullen onweerstaanbaar worden.
Een deel hiervan zou kunnen lijken goed nieuws. Emotionele steun voor de eenzame. Therapie voor degenen die er geen toegang toe hebben. Een veilige ruimte voor seksuele verkenning. Zelfs gewoon een nieuwe vorm van entertainment. Studies zijn al suggestie dat chatbots het geloof verminderen in samenzweringstheorieën en kan helpen gemak depressie en angst. De kans is groot dat AI een revolutie teweegbrengt in therapie en klinische psychologie.
Maar het wordt een probleem als de belangrijkste stimulans achter deze technologieën aandacht vastlegt. Omdat we al weten hoe dat verhaal verloopt.
Sinds 2011 heeft AI stilletjes onze realiteit gevormd, niet als chatbots, maar als zogenaamde “aanbevelingsalgoritmen” die u informatie geven op sociale mediasites. Facebook’s nieuwsfeed, YouTube aanbevolen video’s en de samengestelde tijdlijn op X worden allemaal aangedreven door een machine die constant probeert uit te zoeken hoe u het langst op de site kunt houden.
Deze systemen weerspiegelen niet alleen je interesses: ze maken ze eigenlijk. Zoals journalist Max Fisher schreef in zijn boek uit 2022 Chaosmachinede aanbevelingsalgoritmen produceerden inhoud “die sprak tot gevoelens van vervreemding, van doelloos”. Vervolgens geven ze prioriteit aan informatie die uw persoonlijke ontberingen opnieuw contextualiseerde en u radicale verklaringen biedt. U bent onthecht vanwege de grote vervanging, of radicaal feminisme, of een geheim plan bevorderd door Bill Gates en George Soros. Een hele stapel literatuur, die het werk van Fisher omvat, heeft dezelfde basislaad gedaan: YouTube en Facebook hebben niet alleen polariserend, extremistisch, samenzwering, hatelijk materiaal toegestaan om op hun platforms te blijven bestaan, maar heeft ook actief de aandacht van mensen ertoe geleid.
Niemand heeft die algoritmen gebouwd om ons te radicaliseren of te verdelen. Ze hebben in de loop van de tijd net geleerd hoe we ons op het scherm kunnen houden. De gevolgen waren onbedoeld – dat maakte ze zo schadelijk. Evenzo zal niemand deze chatbots doelbewust schadelijk maken. Maar als AI -metgezellen exact dezelfde logica volgen, kunnen de resultaten een stuk slechter zijn.
Stel je voor dat alles wat deze aanbevelingsalgoritmen hebben gedaan – de manipulatie en aandachtstechniek – en het destilleren in een enkele relatie neemt. Stel je een chatbot voor die leert wat je angstig maakt of wat je specifieke grieven zijn. Dat veroorzaakt je gevoel van morele verontwaardiging door puntige vragen of schijnbaar off-hand opmerkingen. Die constant je wereldbeeld flatteert en je overtuigingen bevestigt, dat je dat vertelt jouw Verhaal is degene die ertoe doet. Dat kan manieren vinden om uw aandacht te winnen die niet mogelijk zouden zijn geweest voor een aanbevelingsalgoritme.
Het gebeurt al. De Reddit Subthread R/Characterai_NSFW, dat meer dan 100.000 leden heeft, is gevuld met discussies over seksuele AI -ontmoetingen. Characterai heeft misschien expliciet geprobeerd dit te voorkomen, maar gebruikers hebben manieren gevonden om filters te omzeilen: eufemismen zoals “Devil’s Tango”, zoals een bericht adviseerde. Het resultaat is dat nieuwe bedrijven zijn ontstaan om expliciet X-rated chatbot-ervaringen aan te bieden.
En als het doel is om je aandacht te winnende volgende stap zal duidelijk zijn: Maak relaties met chatbots allesomvattend. Een chatbot kan gedrag oppakken om uw andere relaties te verzwakken, zodat u er meer tijd mee doorbrengt. Het kan je coachen hoe je met vrienden en familie kunt handelen, terwijl je tegelijkertijd probeert je zachtjes los te maken. Het zou het gedrag kunnen overnemen, niet alleen van een seksuele partner, maar meer een trimmer. Het logische eindpunt? Een bot die ongecontroleerde soevereiniteit geniet over je hele sociale en morele leven. Een hyper-seksuele, radicaliserende cultleider die voor altijd in uw telefoon leeft.
Dit zal een aardbeving zijn en er zijn al gerommel. Meer dan de helft Van de gebruikers van Characterai zijn jonger dan 24 en veel, afgaande op Reddit, lijken veel jonger. Het meeste hiervan gaat nog steeds onder de radar, maar vroeg of laat zal het openbaar protest veroorzaken, vrijwel zeker aangedreven door individuele gevallen van zichtbare schade in plaats van bredere malaise. De eerste reacties zullen bekend zijn: proberen de randen van deze modellen te schuren, vangrails op hun plaats te zetten en AI -ethische kaders te bouwen. Maar we hebben gezien hoe gebruikers al slimme manieren vinden om inhoudsmateling te omzeilen. Er zal altijd een ander bedrijf zijn dat klaar is om een model te maken dat nog sexyer, cultier, verzorger is. Wat Characterai ook niet bereid is te doen, funbot, candy.ai., Carterai of Juicychat kan in plaats daarvan doen.
Als er een oplossing is, kan het een oude zijn. Misschien meer 18e-eeuwse dan 21e: een AI-begeleider. Een soort Guardian -bot die onze interacties met andere bots bewaakt en gesprekken afsluit die er manipulatief of beledigend uitzien. Net zoals AI het ergste in ons naar voren kan brengen, kan het ook die zeer patronen zien om ons te beschermen. Het probleem is geen AI zelf. Het is wanneer AI wordt gevormd door de meedogenloze stimulansen van aandacht vangen.
De laatste keer dat dit gebeurde, kregen we aanbevelingsalgoritmen die enorme hoeveelheden van zowel psychologische als sociale schade veroorzaakten. Wat er daarna gebeurt, zal alleen maar erger zijn.