We are able to retrieve tracked the family’s physical exercise with our great workout registration app, and with our Anna-bot, we are retrieving the users own perception of the currents day physical form.
Physical activity data is tracked in Dataverse, while form data from the bot is stored in SharePoint. We have built a model gathering this information and are now working reports in PowerBI to illustrate how the perception of the daily physical form affects the ability in number of pushups a family member can do every day.
This post is related to Lego Power Bricks and we are aiming for the Dash It Out badge and this blogpost will be continued.
Har du ikke vært ute av huset på 2 uker? Begynner du å miste dine sosiale kunnskaper?
Vel, da bør du komme deg UT PÅ TUR!(Med et familiemedlem eller en kollega)
SkillTripAdvisor er løsningen!
Med SkillTripAdvisor kan du finne personer i din organisjasjon eller i din familie som er i nærheten. Man kan også sende en forespørsel til dem om de har lyst til å gå tur med deg. Velg en tur i appen og kom deg ut!
Appen er en PowerApp med PowerAutomate Flows i bakkant. Med Dataverse som datalag er denne løsninge NoCode!
Appen henter ut GPS koordinater fra GPS i telefonen eller IP-location og kalkulerer lengde mellom GPS koordinatene til kolleger og familiemedlemmer.
Optical recognition technology will recognize real life objects and make it possible to store the data. Our mission is not to reinvent optical recognition, but to concentrate on Extract, Transform, Load (ETL) process into the Azure cloud. We want to be able to discover certain objects (lego men) during the drone flight, and perform certain actions if those objects are discovered (eg. send Vipps invoice as a matter to repay for being unable to hide from drone).
Lego Object recognition
As a minimum, we want to be able to detect lego men and be able to run an action if any objects of this type are present. That is a simple task, requires no connection to any form of table/db.
What is the top bar for the scope of this run, is to be able to distinguish between different Lego men, either by face recognition (that is a very high expectation), or just color/object recognition
In the end: we want our drone to be able to collect optical data, transfer it to the Azure, compare with any existing data in the table/database and make a base for a report. (Diagram coming later)
Legger inn en Authorization header med “bearer ” + access tokenet vi fikk
Legger i tillegg inn en “body”, hva som skal stå i body finnes det et eksempel på i swagger dokumentasjonen, eneste man MÅ endre der er “merchantSerialNumber” og “mobileNumber”, med det gjort er det bare å klikke “Send”…
Kopier ut verdien til “url” feltet som kom i retur.
Test i en nettleser.
NÅ trengs mobilen 🙂 et varsel kommer inn på mobilen, godkjenner betalingen der og vipps var vi i boks.
Nettleseren blir nå sendt over til adressen oppgitt i “callback url” spesifisert i body’n.
Connecting to the drone has been a small challenge in itself, but with that behind us, we’re moving forward. Here’s a historical video of the first flight over beautiful ACDC landscape
Interessen rundt sjakk har eksplodert det siste året, blant annet The New York Times melder om rekordsalg og en økning på over 1000% på salg av fysiske sjakkbrett. Økningen i salget er hovedsakelig påvirket av den populære serien the Queen’s Gambit, og streaming programmet PogChamp. Men det er et problem, vi er midt i en pandemi og ingen kan spille fysisk sjakk mot hverandre.
Heldigvis sitter vi på løsningen: Power Chess! Ved å bruke Power Chess kan du spille et fysisk sjakkparti mot hvem du vil uansett hvor i verden motstanderen befinner seg.
Slik fungerer det:
Hver spiller har hvert sitt sjakkbrett som er koblet på internett og bruker AI som identifiserer hvilke trekk som er utført. Når et sjakktrekk er identifisert vil sjakkbrettet til motstanderen utføre det samme sjakktrekket.
Teknologien som vi bruker for å gjenskape en fysisk handling kan bli gjenbrukt til andre business caser.
Teknologien som vi bruker for gjenkjenne en fysisk handling ved hjelp av AI, for så å digitalisere den for analyse og berikelse, kan også gjenbrukes til helt andre forretningscaser, som for eksempel. å lære roboter å utføre komplekse handlinger.
Her er en løsning for å analysere et bildes primære farger – i dette tilfellet de fem mest fremtrende farger – forenklet ned til Red, Green, Yellow Purple, Blue.
Løsningen er et API i API Management, som kaller en Logic App. Logic App’en kaller CloudMersive sitt “Image Recognition & Processing API” (https://api.cloudmersive.com/docs/image.asp). Dette API’et returnerer et JSON array bestående av RGB-verdier – de 5 mest fremtrende fargene.
Responsen var CloudMersive-API’et dyttes inn i en C# Function App med HTTP Trigger. Denne funksjonen oversetter først fra RGB til HSL fargemodell, og deretter fra HSL til “fargenavn”. Koden fra RGB til HSL er stjålet fra: https://www.programmingalgorithms.com/algorithm/rgb-to-hsl/
Et array av fargenavn sendes til Event Hub for statistikk-formål, samt returneres tilbake til API Management og ut til klient.
Det gjenstår litt jobb for å sikre både API’et, Logic App’en og Function app’en.
Since we are a lot people running kids around at different times, we had to take 3 group shots. Creds to PEtter and John Magnus who lined up for photos at every chance.