? Google: Hur bygger vi en städrobot som inte fuska eller förstöra saker i sin väg?

Google tidigare i år avslöjade den har använt maskininlärning att undervisa en grupp av robotarmar för att gripa hushållsföremål.

Google säger att det vill ta “precision” till debatten om säkerhet och artificiell intelligens (AI), som ofta har gått in i diskussioner om smartare maskiner stjäla jobb eller ens stiger upp och förstöra mänskligheten.

Forskare från Googles djupt lärande forskningsenhet, Google hjärnan, Elon Musk-backed OpenAI, och Stanford och Berkeley universitet, har gått samman för att utforska fem säkerhetsproblem som kan uppstå som AI tillämpas på allmänna ordningen för hemmet, kontoret, och industri.

“Medan möjliga AI säkerhetsrisker har fått en hel del uppmärksamhet, har de flesta tidigare diskussion varit mycket hypotetisk och spekulativ. Vi tror att det är viktigt att mark oro i riktig maskin-learning forskning, och börja utveckla praktiska metoder för tekniska AI-system som fungerar säkert och tillförlitligt “, skrev Chris Olah, ett av Google hjärnan bidragsgivarna till papperet.

Papperet tittar på “olyckor i maskininlärningssystem”, snarare än etik, eller politiska eller ekonomiska konsekvenserna av AI, och ramar mycket av diskussionen kring städrobotar av typen OpenAI igår sa att det skulle syfta till att bygga för hushållssysslor.

Googles syn på AI teknik i allmänhet är att de kommer att vara överväldigande användbara och nyttiga för mänskligheten.

Ordförande i Google moderftg alfabetet Eric Schmidt nyligen avfärdade farhågor som grundlösa spekulationer om att maskinerna kommer en dag överlista människor och sedan förstöra dem, och långt bortom AI: s nuvarande kapacitet. Googles ambition är helt enkelt för alla att ha en personlig assistent, som Googles smarta Allo chattprogrammet, sade han.

Forskarna bakom den nya Google papper fokuserar även på medel som byggts med djupa spiralinlärningsmetoder, som har använts av Google DeepMind s AlphaGo och dess AI som spelar flera Atari spel.

Förstärknings lära tåg maskiner genom trial and error i ett ramverk av belöningar och straff, och visar lovar att utveckla motorik och problemlösning.

Ett exempel på en sådan olycka är huset rengörande robot som i sin målmedvetna strävan efter renhet, förstör föremål, såsom en vas, som hindrar dess mål.

AI robotar är också benägna att “belöning hacking”, som kan inträffa när en agent finner programvarufel i sin belöning funktion. För agenten, är detta inte ett fel utan en funktion som den med framgång kan utnyttja för att uppnå en större belöning.

“Om vår städning robot inrättas för att tjäna belöning för att inte se några mässar, kan det helt enkelt blunda snarare än någonsin rengöring något upp. Eller om roboten belönas för att städa upp mässar kan det avsiktligt skapa arbete så att den kan tjäna mer belöning, “forskarna notera.

Alternativt kan en agent som syftar till att spela brädspel som AlphaGo kunde manipulera sensorn som räknas poängen.

Forskarna påpekar att modern spiral lärande medel “redan upptäcka och utnyttja buggar i sina miljöer, såsom glapp som tillåter dem att vinna videospel”.

På sjukhus runt om i världen, är kirurger få hjälp från nya robot assistenter.

AI och robotar

Google IO: Softbank, tillverkare av AI Pepper robot, har nyheter för amerikanska utvecklare, Elon Musk öppen källkod OpenAI: Vi arbetar på en robot för dina hushållssysslor, Nej, AI inte kommer att stjäla ditt jobb, men det kommer ändra – och här är hur, Meet Mycroft, öppen källkod AI som vill konkurrera Siri, Cortana, och Alexa

Artificiell intelligens;? Googles DeepMind hävdar viktig milstolpe i tillverkningsmaskiner tala som människor, innovation,? LG investera i AI för smarta apparater, autonom körning, stora datamängder,? IBM att använda AI att tämja stora uppgifter i sitt andra afrikanska forskningslabb; artificiell intelligens, IBM Watson: Här är vad en filmtrailer skapad av en AI ser ut

“När en agent börjar hacka sin belöning funktion och finner ett enkelt sätt att få en hög belöning, kommer det inte vara benägna att stanna, vilket kan leda till ytterligare utmaningar i medel som verkar på en lång tidsperiod,” forskarna författade.

Papperet erbjuder också strategier för att stoppa agenter från att gå vilse. För att motverka belöning hacking, föreslår de att belöningen själva funktionen en intelligent agent och mindre benägna att gamed.

Ett annat tillvägagångssätt skulle kunna vara att införa datasäkerhet begrepp som sandlådor för att motverka bedrifter mot programfel. Ännu en strategi kan innebära att plantera plausibla buggar som “tripwires” som om den utnyttjas, kvitta ett larm.

Men forskarna konstatera att en tillräckligt kapabel agent kan “se igenom” tripwire och undvika det samtidigt som man fortsätter att ta mindre uppenbara skadliga handlingar.

“Helt lösa detta problem verkar mycket svårt, men vi tror att ovanstående metoder har potential att förbättra den, och kan skalas upp eller kombineras för att ge mer robusta lösningar”, de avslutar.

Andra potentiella säkerhetsproblem att pappers utforskar innefattar hur man kan övervaka AI-system i stor skala, hur du aktiverar AI agenter för att utforska nya vägar utan fara människor, och hur man kan säkerställa en agent känner av när det är inte i den miljö den var avsedd för.

? Googles DeepMind hävdar viktig milstolpe i tillverkningsmaskiner tala som människor

? LG investera i AI för smarta apparater, autonom körning

? IBM att använda AI att tämja stora uppgifter i sitt andra afrikanska forskningslabb

IBM Watson: Här är vad en filmtrailer skapad av en AI ser ut