Apple julkisti tänään ARKit 4:n iOS 14:n ja iPadOS 14:n rinnalla. ARKitin uusi versio esittelee Location Anchors, uuden Depth API:n ja parannetun kasvojen seurannan.
Sijaintiankkureiden avulla kehittäjät voivat sijoittaa AR-kokemuksia, kuten luonnollisen kokoisia taideinstallaatioita tai navigointiohjeita, kiinteään kohteeseen. Sijaintiankkurointi hyödyntää korkeamman resoluution dataa Apple Maps sijoittaa AR-kokemukset tiettyyn pisteeseen maailmassa, mikä tarkoittaa, että AR-kokemukset voidaan nyt sijoittaa tiettyihin paikkoihin, kuten eri puolille kaupunkeja tai kuuluisien maamerkkien viereen. Käyttäjät voivat liikkua virtuaalisissa kohteissa ja tarkkailla niitä eri näkökulmista, aivan kuten todelliset kohteet nähdään kameran linssin läpi.
ARKit 4 hyödyntää myös iPad Pro LiDAR-skanneri, jossa on upouusi Depth API ja edistyneet kohtauksen ymmärtämisominaisuudet, jotka luovat uuden tavan käyttää yksityiskohtaisia pikselikohtaisia syvyystietoja. Yhdistettynä 3D-verkkotietoihin nämä syvyystiedot tekevät virtuaalisen objektin tukkeutumisesta realistisemman mahdollistamalla virtuaalisten kohteiden välittömän sijoittamisen fyysiseen ympäristöönsä. Tämä voi tarjota kehittäjille uusia ominaisuuksia, kuten tarkempien mittausten tekemisen ja vaikutusten soveltamisen ympäristöön.
Lopuksi kasvojen seurantaa on laajennettu ARKit 4:ssä tukemaan etukameraa kaikissa laitteissa, joissa on A12 Bionic -siru tai uudempi. Jopa kolmea kasvoja voidaan nyt seurata kerralla käyttämällä TrueDepth-kameraa etukamerakokemuksen, kuten Memojin ja Snapchatin, tehostamiseksi.
Suosittu Viestiä