Čuveni proizvođač igračaka odustao od robota “dadilje”

Čuveni proizvođač igračaka odustao od robota “dadilje”

Ukoliko Vam se dopada portal Nova Energija, pozivamo Vas da nam se pridružite na konferenciji Blogomanija u Habakuku, Pohorje od 08.06. do 12.06. pogledajte ovde

Američki proizvođač igračaka Mattel, iz čije “kuhinje” dolazi čuvena Barbika, odlučio je da odustane od puštanja na tržište svoje verzije “dadilje”, koju pokreće veštačka inteligencija, zbog brige o privatnosti i drugim mogućim komplikacijama.

Kako prenosi BBC, protivnici ove “pametne igračke” rekli su da se veštačka inteligencija ne sme koristiti umesto stvarnog roditeljstva, čak iako bi to bilo samo na kratko.

Kompanija je najavila u januaru uređaj za koji je rekla da će pevati uspavanke i pričati priče za laku noć.

Mattel je saopštio da uređaj više nije deo njihove strategije.

Američka kompanija je napravila uređaj nazvan “Aristotel” i najavila ga kao veliki skok u tehnologiji i roditeljstvu.

“Aristotel je dizajniran s posebnom svrhom i misijom: da pomogne roditeljima i da koristi najnapredniju tehnologiju koja koristi veštačku inteligenciju kako bi im olakšala da zaštite, razviju i neguju najvrednije u svom domu – svoju decu”, rečeno je ranije iz kompanije.

Uređaj je kombinovao kućnu asistenciju i malu kameru koja je radila kao vizuelni bebi monitor.

Među karakteristikama, “Aristotel” bi mogao da automatski “preuredi ili traži popuste ili kupone za potrošne materijale za bebe, formule i druge bebi proizvode kada otkrije da će vam se zalihe tih proizvoda uskoro potrošiti”.

U julu je Mattel zamenio svog glavnog šefa za tehnologiju i na to mesto postavio drugog, koji je verovatno pregledao “Aristotela” i odlučio da ga ne pusti na tržište.

Mattel je bio pod pritiskom da povuče proizvod. Jedna američka organizacija saopštila je: “Aristotel nije dadilja, to je uljez. Dečije spavaće sobe moraju biti oslobođene od ‘njuškanja’ velikih korporacija”.

Američki političari su takođe izrazili zabrinutost zbog podataka koje uređaj prikuplja i tražili su više detalja o tome kako će oni biti skladišteni ili deljeni.

Pametni uređaji dizajnirani za decu sve više izazivaju razloge za zabrinutost zbog još nepoznatih efekata koje takve tehnologije mogu imati na emocionalni razvoj dece.

Još jedan proizvod Mattela, pričajuća Barbi lutka, koja pamti detalje razgovora, bila je loša primljena kada je objavljeno da je izbačena na tržište početkom prošle godine.

Izvor: N1
Foto: PrintScreen/YouTube

(Visited 15 times, 1 visits today)

Facebook comments


Komentari

Leave a Reply

Your email address will not be published. Required fields are marked *

Pravila korišćenja sadržaja

Korišćenjem i preuzimanjem materijala i dokumentacije sa sajta, prihvatate u potpunosti uslove i pravila upotrebe koji su opisani u ovom obaveštenju.

 

Delovi sajta i informacije nađene na njemu ne mogu biti kopirani, reprodukovani, prenošeni, publikovani ili distribuirani bez jasnog navođenja izvora i autora pre samog sadržaja, kao i nakon cele objave.

 

Svi sadržaji i informacije na veb sajtu NovaEnergija.net predstavljeni su čitalaštvu na uvid u najboljoj nameri, i redakcija veruje da su tačni. Međutim, NovaEnergija.net ne pruža bilo kakve garancije u vezi bilo kojih proizvoda ili usluga, i na taj način ne može biti odgovorna za direktne ili indirektne štete koje mogu nastati korišćenjem informacija sa ovog sajta. Informacije mogu da sadrže tehničke netačnosti ili štamparske greške. Informacije mogu biti izmenjene bez prethodnog obaveštenja.

 

NovaEnergija.net ne preuzima odgovornost za materijale koje su načinila ili publikovala treća lica, a koja su vezana linkom sa stranicama veb sajta NovaEnergija.net. Ako odlučite da posetite bilo koji linkovan sajt, vi to činite na bazi sopstvene odluke i odgovornosti i preuzimate rizik u pogledu virusa ili sličnih štetnih elemenata.

 

Za sve sporove koji proisteknu iz ovih Pravila nadležan je sud u Beogradu, Srbija. Veb sajt NovaEnergija.net zadržava pravo da pokrene postupke i pred sudovima drugih zemalja u cilju zaštite sopstvenih prava.

CLOSE
CLOSE