A.R. Sounds

Zach Lieberman maakt geluiden. "Klik." "Psh." "Ah." "Oorh." "Eee." Bij elke ruis barst een amorfe witte klodder op een scherm, waardoor een spoor van vormen in de lucht blijft hangen.
Terwijl Lieberman zijn telefoon achteruit beweegt door
de wolk van klodders worden de geluiden afgespeeld in omgekeerde volgorde alsof hij een vinylplaat terugspoelt.

Het lijkt erop dat zijn telefoon door een tijdportaal reist, maar Lieberman heeft een andere verklaring: "Ik neem in principe audio op in de ruimte" zegt hij.

De realiteit is natuurlijk iets gecompliceerder. Lieberman, die helpt bij het beheren van de School For Poetic Computation in New York City, bouwde zijn real-time geluidskaart met behulp van Apple's ARKit en de coderingstoolkit OpenFrameworks. Zoals alle apps gebouwd met ARKit, maakt Lieberman gebruik van SLAM-simultane lokalisatie en mapping, waarbij gebruik wordt gemaakt van de sensoren en camera van de telefoon om een ​​kaart met lage resolutie van de grenzen en contouren van een kamer te bouwen.

Met deze omgevings-informatie in de hand kan Lieberman geluid vastleggen via de microfoon van de telefoon, verwerken en visualiseren met de app die hij heeft gebouwd, en vervolgens de illustraties toewijzen aan een exacte locatie in de kamer. Je kan in de ene hoek een geluid maken, een woord in een andere, en een spoor van geluidsgolven zien verschijnen precies waar de telefoon ze voor het eerst heeft vastgelegd. Verplaats de telefoon langs het 3D-pad en het werkt als een scrubber, waarbij de audio voorwaarts en achterwaarts in realtime wordt afgespeeld. "Het speelt het stuk audio dat het dichtst bij de locatie van het apparaat ligt" zegt Lieberman.

 

https://www.youtube.com/watch?v=ET2CKUqdPCo

 

Het volledige artikel kan u vinden via deze link:
https://www.wired.com/story/an-artist-uses-an-iphone-to-visualize-sounds-in-ar/


Remote AR met ARKit

Scope AR voegt de ARKit van Apple toe aan de softwaretoolset. Aan de hand van deze demonstratie kunnen we zien hoe de samenwerking van op afstand word veranderd door het gebruik van deze technologie.

Op deze video kunnen we zien hoe een medewerker een reeks aantekeningen of annotaties op objecten in de echte wereld kan achterlaten met de Remote AR-software van het bedrijf, terwijl een externe medewerker live kan observeren op een tweede apparaat. Het idee is dat u een expert op locatie kunt hebben die een minder ervaren medewerker begeleidt. Scope AR's technologie is opgebouwd rond augmented reality-gebaseerde instructies die nuttige informatie bieden, zoals assemblagestappen, over een weergave van de echte wereld, met als doel bedrijven te helpen tijd en geld te besparen door mensen te laten leren op het werk of snel toezicht te houden door externe experts.

https://www.youtube.com/watch?v=vKnGTOQQM-I

Officiële website:
https://www.scopear.com/

Het volledige artikel kan u vinden via deze link:
https://uploadvr.com/remote-ar-scope-arkit/


ManoMotion brengt gebaar herkenning naar ARKit applicaties

Binnen enkele weken zal de SDK van ManoMotion beschikbaar zijn voor ontwikkelaars van het Apple ARKit platform. Het software pakket zal gebaarherkenning toevoegen als een nieuwe manier van input. Gebaar herkenning is natuurlijk geen nieuw gegeven. Het innovatieve aan deze iteratie op het concept is dat het voor de eerste keer is dat er stabiele gebaarherkenning kan geleverd worden door een "out-of-the-box" apparaat. In het filmpje onderaan zien we de software in actie.

(Bron: uploadvr.com)