Podcast rund um das Thema Lernen und Arbeiten mit und in Virtual-/Augmented (VR/AR) und Mixed Reality (MR).

- VR Collaboration – Full immersiven VR-Spaces
- Youtube #lernvontorsten
#026 Immersive Learning Podcast anhören
Aktuelles Video #lernvontorsten
Podcast rund um das Thema Lernen und Arbeiten mit und in Virtual-/Augmented (VR/AR) und Mixed Reality (MR).

Aktuelles Video #lernvontorsten
The power of the new iPhones to produce augmented reality experiences is really amazing. Thanks to powerful graphics processing and cameras, it’s possible to overlay convincing 3D images over the real world.
Unfortunately, the only way to get that AR experience is typically through the phone screen — but not so with this headset and accessories.
MagiMask and MagiTools combine for a powerful AR experience from any AR-compatible phone. The mask component converts your phone into an immersive, high-resolution headset. That’s perfect for watching movies, TV and full-screen augmented reality experiences. It upconverts your phone resolution four times higher than split-screen VR goggles, so you can enjoy full visual fidelity.
Also included are MagiTools — a glyphed-out tile, dice and card — that are perfect for physical interaction with digital models, games and applications. Whether you just want to watch content and play games or want to go deeper and develop your own AR experiences, this is the toolkit to do it.
Quelle:
https://www.vrroom.buzz/vr-news/guide-vr/instantly-turn-your-iphone-ar-powerhouse
Lemgoer Wissenschaftler erhalten Auszeichnung für exzellente Forschung im Bereich Mensch-Technik-Interaktion
Augmented Reality (AR), also die computergestützte Erweiterung der Realität, verspricht nicht nur in der Gaming-Welt viel Spaß und außergewöhnliche Erlebnisse, sondern wird mittlerweile auch als wichtige Komponente in der Industrie und Wirtschaft genutzt. Handarbeitsplätze in der Fabrik der Zukunft sind mit einer interaktiven Oberfläche ausgestattet, welche den Mitarbeiter per Handtracking und Projektion durch den Montageprozess eines Produktes führt. Inwieweit eine Einarbeitung neuer Mitarbeiter mit Hilfe dieser Assistenzsysteme funktioniert, wurde nun am Institut für industrielle Informationstechnik (inIT) untersucht.
In Kooperation mit der TU Clausthal wurde eine Studie mit insgesamt 33 Probanden durchgeführt. Es wurde beobachtet, wie die Probanden den Montageprozess über mehrere Tage mithilfe eines AR-Assistenzsystems lernen und wie schnell Wissen aufgebaut wurde. Verglichen wurde dies mit einer Probandengruppe, die den Prozess per Papieranleitung lernt und einer Probandengruppe, die den Prozess per Anleitung eines Vorarbeiters gelehrt bekommt. Die Ergebnisse fasst Sebastian Büttner, wissenschaftlicher Mitarbeiter am inIT, in seinem Paper „Augmented Reality Training for Industrial Assembly Work – Are Projection-based AR Assistive Systems an Appropriate Tool for Assembly Training?” zusammen. „Am ersten Tag konnten wir zunächst keine Unterschiede zwischen den drei Gruppen feststellen. Zu Beginn des zweiten Tages zeigte sich jedoch, dass die Gruppe, bei der eine Einarbeitung durch einen Vorarbeiter geschah, noch deutlich mehr über den Montageprozess wusste, als die beiden anderen Gruppen. Folglich war die Einarbeitungszeit dieser Gruppe am zweiten Tag und auch insgesamt am kürzesten. Die durchschnittliche Einarbeitungszeit mittels AR-Assistenzsystem lag zwischen der Einarbeitungszeit durch einen Vorarbeiter und der Gruppe, die mit einer Papieranleitung lernte. Allerdings zeigte die Assistenzsystem-Gruppe keine signifikanten Zeitunterschiede zu einer der anderen beiden Gruppen. Nach einer Woche haben wir erneut das Wissen der Probanden geprüft. Hier zeigte sich, dass der Wissenserhalt unabhängig von der eingesetzten Lernmethode war. Weiterhin konnten wir feststellen, dass bei der Nutzung der Papieranleitung mehrere Probanden systematisch etwas falsch gelernt hatten. Bei der Einarbeitung mit unserem AR-Assistenzsystem konnte dies vermieden werden, da durch das Handtracking potenzielle Fehler direkt vom System erkannt werden und der Mitarbeiter darauf aufmerksam gemacht wird. Er erhält so bereits vor der Fehlerbegehung einen Hinweis, dass der zu tätigende Schritt ein anderer sein muss“, gibt Büttner einen Einblick in die Ergebnisse.
Büttner und seine Co-Autoren Professor Michael Prilla von der TU Clausthal und Professor Carsten Röcker vom inIT, reichten ihr Paper bei der renommiertesten Konferenz im Bereich Mensch-Computer-Interaktion, der „ACM Conference on Human Factors in Computing Systems (CHI)“, ein und wurden mit dem „Honorable Mention Award“ ausgezeichnet. Damit gehören sie zu den besten 5 % der insgesamt 3.126 eingereichten Publikationen. Aufgrund der Corona-Pandemie konnte die Konferenz allerdings nicht wie geplant vom 25. bis zum 30. April in Honolulu, Hawaii, stattfinden. Dennoch wurde das Paper Ende Mai im Rahmen der „Virtual German CHI Week 2020“ präsentiert. Auf dieser virtuellen Konferenz wurden in dreiminütigen Videos alle Beiträge, die an deutschen Forschungseinrichtungen verfasst wurden und eigentlich auf Hawaii hätten präsentiert werden sollen, vorgestellt und diskutiert.
„Natürlich ist es sehr schade, dass die Konferenz nicht wie geplant stattfinden konnte. Dennoch freuen wir uns sehr über diese Auszeichnung und sind stolz auf unsere Arbeit“, freut sich Sebastian Büttner. Für ihn und sein Team ist die Studie damit abgeschlossen.
Nun schließt sich allerdings die Forschungsfrage an, wie man solche Assistenzsysteme weiterentwickeln kann, sodass diese zur Einarbeitung eines Mitarbeiters geeigneter sind und wie sich das System besser auf den Menschen einstellen und Wissen vermitteln kann. „An diesem Thema werden wir weiter forschen mit dem Ziel, die Systeme so adaptiv wie möglich zu gestalten“, wirft Büttner einen Blick in die Zukunft.
Quelle:
https://nachrichten.idw-online.de/2020/07/16/einarbeitung-neuer-mitarbeiter-mit-augmented-reality/?groupcolor=1
Foto: Professor Carsten Röcker (li.) und Sebastian Büttner (re.) freuen sich über die Auszeichnung., Mischa Gutknecht-Stöhr, inIT
Many decision-makers and CEOs are looking for ways to transform their companies by incorporating the latest technologies. Thus, the latest enterprise AR trends represent a topic of interest for management teams across various industries. And for good reason. Augmented reality has already proven to be a versatile and useful technology that improves the workplace and business processes.
AR has penetrated almost all the industries: automotive, professional services, education and training, retail, architecture, and healthcare. These are just a few core industries where professionals from junior to senior levels are working with AR tools.
Thus, it is worth looking at short-term and medium-term enterprise AR trends, to see where the business and professional world is heading and how the workplace will be transformed.
Here are some of the most important enterprise AR trends for the next few years:
Workers are used to handling various tools and pieces of equipment in order to perform their tasks. These tasks cover manufacturing, maintenance, and troubleshooting and operating various industrial machines.
Very soon, AR headsets will become a regular tool for all these workers. As proven by various companies, augmented reality is an excellent medium for displaying instructions, offering expert support, and reinforcing safety rules.
This is one of the enterprise AR trends that everyone will profit from. As augmented reality is becoming more pervasive in all industries, hardware producers will come up with new, improved models of AR glasses. These new models will be more affordable, lightweight and easy to use, as well as more powerful, with improved performance.
Already, several top-level companies like LG, Apple, and Sony are joining the market of AR hardware producers, dominated so far by Microsoft and Magic Leap. This increased level of competition is healthy for the industry, not only for enterprise AR but also for consumer products.
Consumers love AR as part of their shopping experience. Also, developers are constantly working on improving facial recognition, latency, and other factors to make product try-on more realistic.
As the last few months demonstrated, AR capabilities embedded in shopping apps and websites have kept sales going, even under difficult conditions. Thus, consumers will soon expect all fashion, cosmetics, furniture and home improvement brands to let them experiment with virtual objects before purchasing products.
Among other enterprise AR trends, this will be most beneficial in a post-COVID world. Through collaborative tools that allow object manipulation and editing, teams can work together without sharing a physical space.
With many employees still working from home, the possibilities offered by cloud AR services are endless. They will allow business to go on while people stay safe and comply with social distancing rules. At the same time, it will allow businesses to work with international clients and expand their market.
Companies have understood that AR offers a competitive edge if it is implemented and used correctly. Thus, they are no longer satisfied with ready-made solutions. Developers will have the task to create highly specialized and customized solutions.
These solutions will serve each specific industry and meet the demands of corporations in terms of data protection, business processes, and specific work procedures. This is one of the enterprise AR trends that will continue over the year and differentiate top players from the rest of their competitors.
Quelle:
Big ideas in computing often become even bigger when they become interconnected and turn social. Servers became more powerful when linked together to form the Internet; smartphones became more enthralling when equipped with social networking apps; online gaming became more high-stakes when made into massively multiplayer experiences; the nature of work changed dramatically with the advent of direct messaging platforms, real-time cloud-based document editing, and videoconferencing. It is no surprise, then, that many compelling use cases of AR are multi-user.
Consider, for instance, collaborative AR tools that allow enterprise users to manipulate 3D structures, multiplayer AR games that center around real-world interaction, or AR retail experiences that enable shopping with friends. The appeal of such use cases has begun to attract attention from the AR community. For instance, Microsoft’s Azure Spatial Anchors are designed to persist and share objects in AR, and the startup Ubiquity6 is built around a vision of multi-user AR content.
Besides imagining the benefits of shared AR experiences, though, it is also important to consider the harms — intentional or unintentional — that users may do to each other in such interactions. Only by including security and privacy in our design process can we build AR technologies that enable positive multi-user interactions while minimizing harmful ones.
Negative multi-user interactions are not unique to AR. For instance, online communities such as Twitter have already needed to combat hateful language and manipulative content, and the VR community is grappling with player-to-player harassment in immersive games.
Multi-user AR will likely see a rise in abusive user behavior as well. What makes AR unique in the risks that it poses is the way in which virtual content and real-world occurrences interact. This combination amplifies the impact of existing forms of misbehavior and also introduces new concerns.
Imagine, for instance, that you are navigating a shopping center using the AR signage that shops have placed to promote their businesses, but someone has vandalized some nearby displays by placing interfering AR content in the same space. Or suppose you are on a team designing a new mechanical component, and a competitor sneaks a look at your model during a client meeting in a coffee shop. Or suppose you and a group of friends are constructing some playful AR content in a park when another user disassembles or deletes your construction.
More generally, we can think of these risks as falling into three categories: a malicious or careless user might:
How, then, do we address these challenges?
The first step in protecting AR users from each other is to consider how the above types of unwanted behaviors might manifest in different app contexts. The semantics of an application can affect whether a type of interaction is good or bad.
For instance, in an app that lets users build structures out of virtual components that interact with the real world according to the laws of physics, a user should not be able to attach an unwanted or offensive accessory to a passerby; such an app may thus need to enforce a notion of personal space. An app in which users can play a virtual game of paintball, however, requires that virtual paint splatters stick to other players, so enforcing personal space makes less sense in that context.
Crucially, mitigating multi-user risks in AR apps need to not come at the expense of achieving rich functionality in shared experiences. For example, in an app where a developer wishes content to be shared publicly by default, a sensitive or personal object can be protected with a degree of privacy by making it appear to unauthorized parties as a neutral placeholder object rather than showing the object publicly in its original form.
The ideas in this article have been explored by the academic research community — for example, through the ShareAR, EMMIE, and SecSpace projects. However, commercial AR development platforms have not yet built such controls into their APIs, so the responsibility for mediating multi-user AR interactions largely remains with app developers.
To fulfill the promise of multi-user AR, app designers must pay attention to both good and bad potential user behavior, and platform and toolkit designers must provide more robust support to developers in addressing these issues in their designs.
Quelle:
Ein von Forschenden am MIT entwickeltes Modell zielt darauf ab, Robotern eine menschenähnliche räumliche Wahrnehmung ihrer physischen Umgebung zu vermitteln.
Wären wir nicht alle dankbar für ein wenig Hilfe im Haushalt, vor allem, wenn diese Hilfe in Form eines intelligenten, anpassungsfähige Roboters käme? Nun gibt es ja die One-Trick-Ponys der Gerätewelt. Aber die MIT-Ingenieure stellen sich Roboter eher wie Haushaltshilfen vor, die in der Lage sind, vielfältige und komplexe Befehle vom Typ Alexa zu befolgen, wie zum Beispiel „Geh in die Küche und hol mir einen Kaffee“. Um solche hochrangigen Aufgaben ausführen zu können, müssen Roboter nach Ansicht der Forscher über eine räumliche Wahrnehmung verfügen, die der des Menschen entspricht.
„Um eine Entscheidung in der Welt treffen zu können, braucht man ein mentales Modell der Umwelt um einen herum“, sagt Luca Carlone, Assistenzprofessor für Luft- und Raumfahrt am MIT. „Das ist für den Menschen etwas so Müheloses. Aber für Roboter ist es ein schmerzhaft schwieriges Problem, bei dem es darum geht, Pixelwerte, die sie durch eine Kamera sehen, in ein Verständnis der Welt umzuwandeln.
Jetzt haben Carlone und seine Studenten eine räumliche Wahrnehmung für Roboter dargestellt, die der Art und Weise nahekommt, wie Menschen die Welt wahrnehmen und sich in ihr bewegen. Das neue Modell ermöglicht es einem Roboter, schnell eine 3D-Karte seiner Umgebung zu erstellen, die auch Objekte und ihre semantischen Bezeichnungen (zum Beispiel einen Stuhl gegenüber einem Tisch) sowie Menschen, Räume, Wände und andere Strukturen enthält, die der Roboter wahrscheinlich in seiner Umgebung sieht.
Das Modell ermöglicht es dem Roboter auch, relevante Informationen aus der 3D-Karte zu extrahieren, den Standort von Objekten und Räumen oder die Bewegung von Personen auf seinem Weg abzufragen. „Diese komprimierte Darstellung der Umgebung ist nützlich, weil unser Roboter damit schnell Entscheidungen treffen und seinen Weg planen kann“, sagt Carlone. „Dies ist nicht allzu weit von dem entfernt, was wir als Menschen tun. Wenn Sie einen Weg von Ihrem Zuhause zum MIT planen müssen, planen Sie nicht jede einzelne Position, die Sie einnehmen müssen. Man denkt einfach auf der Ebene von Straßen und Orientierungspunkten, wodurch man seine Route schneller planen kann.
Abgesehen von Haushaltshilfen, so Carlone, könnten Roboter, die dieses neuartige mentale Modell der Umgebung übernehmen, auch für andere hochrangige Aufgaben geeignet sein, wie zum Beispiel die Arbeit Seite an Seite mit Menschen in einer Fabrikhalle oder die Erkundung eines Katastrophengebietes für Überlebende. Er und seine Studenten, darunter der Hauptautor und MIT-Absolvent Antoni Rosinol, werden auf der Robotics: Science and Systems ihre Ergebnisse vorstellen.
Gegenwärtig ist die Robotervision und -navigation vor allem auf zwei Wegen vorangekommen: 3D-Kartierung, die es Robotern ermöglicht, ihre Umgebung bei der Erkundung in Echtzeit dreidimensional zu rekonstruieren; und semantische Segmentierung, die einem Roboter dabei hilft, Merkmale in seiner Umgebung als semantische Objekte zu klassifizieren, wie zum Beispiel ein Auto gegenüber einem Fahrrad, was bisher meist auf 2D-Bildern erfolgt.
Das neue Modell für die räumliche Wahrnehmung von Carlone und Rosinol ist das erste, das eine 3D-Karte der Umgebung in Echtzeit erzeugt und gleichzeitig Objekte, Personen (die im Gegensatz zu Objekten dynamisch sind) und Strukturen innerhalb dieser 3D-Karte kennzeichnet. Die Schlüsselkomponente des neuen Modells des Teams ist Kimera, eine Open-Source-Bibliothek, die das Team zuvor entwickelt hat, um gleichzeitig ein geometrisches 3D-Modell einer Umgebung zu erstellen und dabei die Wahrscheinlichkeit zu kodieren, dass ein Objekt zum Beispiel ein Stuhl oder ein Schreibtisch ist. „Wie das Fabelwesen, das eine Mischung aus verschiedenen Tieren ist, sollte Kimera eine Mischung aus Kartographie und semantischem Verständnis in 3D sein“, sagt Carlone.
Kimera arbeitet, indem sie Bildströme von der Kamera eines Roboters sowie Trägheitsmessungen von bordeigenen Sensoren aufnimmt, um die Bewegungsbahn des Roboters oder der Kamera abzuschätzen und die Szene als 3D-Netz zu rekonstruieren, und das in Echtzeit.
Um ein semantisches 3D-Netz zu erzeugen, verwendet Kimera ein bestehendes neuronales Netz, das auf Millionen von Bildern aus der realen Welt trainiert wurde. Es dient dazu, die Beschreibung jedes Pixels vorherzusagen, und projiziert dann diese Labels in 3D mit einer als Ray-Casting bekannten Technik, die in der Computergrafik für das Echtzeit-Rendering verwendet wird. Das Ergebnis ist eine Karte der Umgebung eines Roboters, die einem dichten, dreidimensionalen Netz ähnelt, in dem jedes Gesicht als Teil der Objekte, Strukturen und Personen in der Umgebung farbcodiert ist.
Würde sich ein Roboter allein auf dieses Netz verlassen, um durch seine Umgebung zu navigieren, wäre dies eine rechenaufwändige und zeitraubende Aufgabe. Daher bauten die Forscher auf Kimera auf und entwickelten Algorithmen, um aus Kimeras anfänglichem, sehr dichten, semantischen 3D-Netz dynamische 3D-„Szenengraphen“ zu konstruieren. Szenengraphen sind beliebte Computergrafikmodelle, mit denen komplexe Szenen manipuliert und gerendert werden und die typischerweise in Game-Engines zur Darstellung von 3D-Umgebungen verwendet werden.
Im Falle der dynamischen 3D-Szenengraphen abstrahieren oder zerlegen die zugehörigen Algorithmen Kimeras detailliertes semantisches 3D-Netz in verschiedene semantische Schichten, so dass ein Roboter eine Szene durch eine bestimmte Schicht oder Linse „sehen“ kann. Die Schichten entwickeln sich in der Hierarchie von Objekten und Personen über offene Räume und Strukturen wie Wände und Decken bis hin zu Räumen, Korridoren und Hallen und schließlich zu ganzen Gebäuden.

Laut Carlone vermeidet diese Schichtdarstellung, dass ein Roboter Milliarden von Punkten und Flächen im ursprünglichen 3D-Netz sinnvoll darstellen muss. Innerhalb der Schicht aus Objekten und Menschen konnten die Forscher auch Algorithmen entwickeln, die die Bewegung und die Gestalt von Menschen in der Umgebung in Echtzeit verfolgen.
Das Team testete ihr neues Modell in einem fotorealistischen Simulator, der in Zusammenarbeit mit dem MIT Lincoln Laboratory entwickelt wurde und einen Roboter simuliert, der durch eine dynamische Büroumgebung navigiert, in der sich Menschen bewegen. „Wir ermöglichen Robotern im Wesentlichen mentale Modelle, die denen der Menschen ähnlich sind“, sagt Carlone. „Dies kann sich auf viele Anwendungen auswirken, darunter selbstfahrende Autos, Such- und Rettungsdienste, kollaborative Fertigung und häusliche Robotik.
Ein weiterer Bereich ist die virtuelle und erweiterte Realität (AR). Stellen Sie sich vor, Sie tragen eine AR-Brille, die unseren Algorithmus ausführt: Die Brille könnte Ihnen bei Fragen wie „Wo habe ich meine rote Tasse gelassen?“ und „Was ist der nächstgelegene Ausgang? Sie können sich das als eine Alexa vorstellen, die sich ihrer Umgebung bewusst ist und Objekte, Menschen und ihre Beziehungen versteht.
„Unser Ansatz wurde gerade erst möglich dank der jüngsten Fortschritte beim Deep Learning und der jahrzehntelangen Forschung zur gleichzeitigen Lokalisierung und Kartierung“, sagt Rosinol. „Mit dieser Arbeit machen wir den Sprung in eine neue Ära der Roboterwahrnehmung, die als Raum-KI bezeichnet wird, die noch in den Kinderschuhen steckt, aber ein großes Potenzial in der Robotik und in der virtuellen und erweiterten Realität im großen Maßstab besitzt.
Diese Forschung wurde zum Teil vom Army Research Laboratory, dem Office of Naval Research und dem MIT Lincoln Laboratory finanziert.
Bild oben: MIT-Forscher haben ein Modell für räumliche Wahrnehmung bei Robotern entwickelt, die der Art und Weise nachempfunden ist, wie Menschen die Welt wahrnehmen und sich in ihr bewegen. Die Schlüsselkomponente des neuen Modells des Teams ist Kimera, eine Open-Source-Bibliothek, die das Team zuvor entwickelt hat, um gleichzeitig ein geometrisches 3D-Modell einer Umgebung zu konstruieren. Kimera baut ein dichtes semantisches 3D-Netz einer Umgebung auf und kann Menschen in der Umgebung verfolgen. Die Abbildung zeigt eine Multi-Frame-Aktionssequenz eines Menschen, der sich in der Szene bewegt. Bildquelle: MIT/Mit freundlicher Genehmigung der Forscher
Paper: “3D Dynamic scene graphs: Actionable spatial perception with places, objects, and humans”: https://roboticsconference.org/program/papers/79/
Quelle:
Foto: Courtesy of the researchers/MIT
The Nreal Light mixed reality (MR) glasses are due to arrive by the end of 2020 as a developer kit. In the run-up to launch Nreal has announced that the kit will come with two pieces of software pre-installed; Spatial and DingTalk Work Space.

Both apps are built around virtual collaboration, a key consideration for a lot of companies as employees work remotely. Spatial is the better known of the two, enabling users to create their own rooms and import their own content like 3D models. Another benefit is the fact that Spatial is already available on platforms like Oculus Quest, enabling cross-platform meetings.
“We’ve worked hard to ensure the Spatial experience is as easy and seamless as possible, especially to our huge influx of new users less familiar with AR and VR applications,” said Jacob Loewenstein, Head of Business at Spatial in a statement. “Our goal from the start has been to make our collaborative workplaces accessible to the masses, which is why we are so thrilled to be chosen as one of the pre-installed apps on the Nreal Light. Nreal marks the first mixed reality hardware platform with real potential to become the device to bring headworn computing to everyone. We’re excited for what the future holds for Spatial when Nreal Light ends up in the hands of consumers later this year.”
DingTalk’s multi-screen layout displays video side-by-side in a curved 180° presentation arc, mimicking a physical meeting. Features also include sharing and manipulating information with other call participants in real-time.

“Companies are waking up to the realization that AR and MR are viable substitutes that connect employees in a powerful way by transcending their physical presence but is more dynamic than 2D video calls,” Chi Xu, Founder and CEO of Nreal adds. “With killer apps like Spatial and DingtTalk pre-installed in the Nreal Light Developer Kit, we’re delivering exactly what consumers are looking for in MR glasses ahead of the availability of the consumer version of Nreal Light. We’re also excited to see what other types of apps that developers might bring to the table tomorrow as Nreal Light presents a unique and once-in-a-lifetime chance to ride the initial wave of the mass consumer’s eagerness for mixed reality.”
The Nreal Light Developer Kit is currently available for pre-order, retailing for $1,199 USD. The actual mass-market consumer version is expected to be sold for $499, able to connect to current smartphones as well as newer 5G devices using the Qualcomm Snapdragon 855 or 865 Mobile Platform.
Quelle:
Interested in developing AR/VR applications but don’t know where to start. Start by choosing one or more of these free workshops which will serve as a perfect introduction into XR development.

Designing UI for Hand Tracking Applications
Face Tracking with AR Foundation Workshop


Artificial Intelligence and Unity
XR Interaction Toolkit Workshop
Quelle:
6 Free On-Demand Workshops to Kickstart your AR/VR Development
Avatar Partners stellt die Avatar Connect AR-Lösung für die Echtzeit-Zusammenarbeit von räumlich weit verteilten Mitarbeitern vor.
Avatar Partners, Anbieter von Virtual-, Augmented- und Mixed-Reality-Softwarelösungen (zusammenfassend: XR) für die Schwerindustrie und Verteidigung, hat seine neue Avatar Connect-Lösung vorgestellt. Die AR-Lösung soll eine benutzerfreundliche, robuste und kostengünstige Möglichkeit bieten, räumlich weit verteilte Teammitglieder über Echtzeit-Zusammenarbeit überall auf der Welt und auf jedem AR-fähigen Gerät zu verbinden.
Avatar Connect ist eine leistungsstarke AR-Lösung für Remote-Mitarbeiter, die Design, Feldkoordination, Installation, Projektmanagement, Qualitätskontrolle und -sicherung, Produktivität, Sicherheitstraining und Wartung für eine Vielzahl von Anwendungen in verschiedenen Märkten verbessern soll.
„Wir freuen uns sehr über die Möglichkeiten, die Avatar Connect bieten kann, insbesondere in einer Zeit, in der das Arbeiten aus der Ferne immer mehr zunimmt und eine effektive Unterstützung für diese Mitarbeiter an vorderster Front ein Muss ist“, sagte Marlo Brooke, CEO und Gründer von Avatar Partners. „Unser Ziel war es, eine leistungsfähige Lösung mit der aktuellen AR-Technologie in einer Form zu schaffen, die in wenigen Minuten eingerichtet und implementiert werden kann.“
Über mobile Geräte können die Teammitglieder vor Ort Echtzeit-Ansichten von Modellen und Umgebungen mit bis zu 15 Remote-Benutzern an mehreren Standorten gleichzeitig austauschen. Eine ungewöhnliche 3D-Anmerkungsfunktion ermöglicht es Teams und leitenden Experten, Objekte virtuell dreidimensional mit einem Tablet oder Remote-PC zu betrachten und zu zeichnen, um die richtige Ausführung einer Aufgabe anweisen zu können.
Avatar Connect bietet weitere Leistungsmerkmale, darunter einen facettenreichen „Zeig mir, sag mir, führe mich“-Ansatz für Echtzeit-AR, der die Teamleistung verbessern und gleichzeitig Verzögerungen und Fehler reduzieren soll. Darüber hinaus kann die AR-Lösung angesichts des zunehmenden Trends zur Fernarbeit dazu beitragen, Reisekosten und Ausfallzeiten zu vermeiden.
Bild oben: Die räumliche 3D-Erkennung kann dazu verwendet werden, Anmerkungen auf einem Zielobjekt zu fixieren, während sich der Benutzer um das Objekt herum bewegt. Bildquelle: Avatar Partners
Mehr Informationen zu den XR-Lösungen und Dienstleistungen von Avatar Partners finden Sie unter www.avatarpartners.com.
Quelle:
Foto: Avatar Partners
Team-Arbeit aus der Ferne: AR-Lösung bringt Mitarbeiter zusammen
We live in the 21st century where technology is vast or transforming every day. These transformations are most certainly creating blurry lines between fiction and reality.
If you talk about 2019, it was a growth year for virtual and augmented reality. With these advancements, the recent year 2020 has passed a new way of experience where customers can engage with real-world life into an imaginary environment. These technologies help us to explore computer-generated environments in virtual life and overlay the computer graphics into our actual environment.
Today AR and VR technology is used in several industries worldwide. This includes from education to healthcare, tourism to marketing, etc. Moreover, most trade shows are also amplified with AR & VR technology.
HERE ARE VIRTUAL AND AUGMENTED REALITY TRENDS TO LOOK OUT FOR 2020:
1: Assimilate of AI with AR & VR:
AR & VR developers will incorporate smart, cognitive functionalities into their applications. This advanced AI technology enables a computer to label things through a camera to understand them and it becomes a vital technology for better lives and experiences. Moreover, this assimilation helps enterprises to easily drive more efforts digitally.
2: Immersive Use of AR & VR in Training & Teaching:
In the education sector, the use of AR and VR technology is the best way to provide immersive virtual training environments for students. Whatever field students are interested in, with this technology they can easily practice all the things from surgery to construction without involving the real world.
3: 5G Open New Possibilities for VR & AR:
5G offers a superfast network and this will also increase the pace of data transfer to the cloud, it’s processing without any loading errors. It means you can enjoy the better-augmented experience in low-bandwidth or low-powered environments with cheaper devices as well as handsets too.
4: Advancements in VR & AR Displays:
Another virtual and augmented reality trend you will have in 2020 is advancements in VR & AR displays. The display of headsets magnifies the immense high-power content display on the screen. So you can easily see the content without getting blurred or putting a strain on your eyes.
5: VR & AR will be more collaborative & social:
Recent VR and AR will be more collaborative and social. It is because it easily interacts with the realistic representation of family & friends through virtual reality. One of the best examples of this integration is on “WeChat”. It incorporates VR to mobile messaging systems. Besides, Facebook VR space provides a platform & allows individuals to socialize in this environment.
6: Power of gearing vehicles with AR & VR:
Self-directed vehicles are gaining more popularity in this era. Numerous people are waiting eagerly to get into these self-driving cars. The best part about automobile manufacturers is they are an integration of augmented reality. In 2020, many leaders of the automotive industry embrace the idea of using top technology trends. They’re-defined the way that people move and travel in the aura of voice assistants, AR, and more.
Quelle:
Foto: Another virtual and augmented reality trend you will have in 2020 is advancements in VR & AR displays. The display of headsets magnifies the immense high-power content display on the screen.
