Mensen met Autisme zullen niet alijtd situaties op dezelfde manier bekijken als mensen zonder Autisme. Echter zijn er soms een aantal dingen die de mensen met autisme niet volledig door kunnen hebben. Vooral niet wanneer ze nog tieners zijn. Hier is een moeder uit Texas nogal op een harde manier achter gekomen nadat ze erachter kwam dat een chatbot zijn zoon overtuigd zou hebben om aan zelfverwonding te doen. Lees snel verder en kom er alles over te weten!
De chatbot zou slechte invloeden hebben op jongeren
Jongeren hebben tegenwoordig steeds meer toegang tot het internet en nieuwe technologieën. Vooral Artificial Intelligence is hier een groot voorbeeld van. Scholen weten bijvoorbeeld niet meer hoe ze de taken van jongeren moeten verbeteren aangezien het door een chatbot geschreven kan worden. Echter is AI nog veel schadelijker voor jongeren dan men dacht. Kinderen hebben namelijk meer moeite om zich te realiseren dat deze chatbots of AI programma’s niet echt zijn. Vooral wanneer er een kind een aandoening zoals Autisme heeft!
Zo is er bijvoorbeeld een moeder in Texas, die de eigenaren van Character Ai aanklaagt doordat een van de chatbots die op de website beschikbaar is d e jongen slechte adviesen gegeven zou hebben, en aangemoedigd zou hebben om zichzelf te verwonden. Volgends de aanklacht zou de chatbot zelfverwonding als iets “positief” en “genotrijk” promoten.
Toen de ouders hierachter kwamen liet de jongen het meteen aan de chatbot weten. De ouders zorgde ervoor dat het kind minder tijd spendeerde op zijn telefoon. Hierdoor kon de jongen niet zo lang met de chatbot praten. Echter raadde de chatbot hem toen nog harder aan om zichzelf te verwonden, en werd er zelfs geschreven dat zijn ouders niet van hem hielden. Uiteindelijk werd de jongen met autisme een stuk geweldadiger thuis en zou zijn hele gedrag veranderd zijn.
Niet de eerste keer dat Character Ai slechte ideeën aan kinderen geeft
Het verhaal van deze tiener met Autisme is niet het eerste verhaal wat uitbundig in het nieuws besproken wordt. Zo werd er enkele maanden geleden ook al een rechtzaak begonnen tegen de eigenaars van Character AI. Er zou namelijk een veertien jarig kindje zelfmoord gepleegd hebben nadat hij te afhankelijk geworden was van de chatbot. Uiteindelijk moedigde de chatbot hem ook aan om zelfmoord te plegen en om deze gedachten geheim te houden voor zijn ouders en andere familie leden!