Knowledge is everything – Human behaviour analysis

We are able to retrieve tracked the family’s physical exercise with our great workout registration app, and with our Anna-bot, we are retrieving the users own perception of the currents day physical form.

SharePoint Storage
Microsoft Dataverse

Physical activity data is tracked in Dataverse, while form data from the bot is stored in SharePoint. We have built a model gathering this information and are now working reports in PowerBI to illustrate how the perception of the daily physical form affects the ability in number of pushups a family member can do every day.

This post is related to Lego Power Bricks and we are aiming for the Dash It Out badge and this blogpost will be continued.

SkillTripAdvisor

Har du ikke vært ute av huset på 2 uker? Begynner du å miste dine sosiale kunnskaper?

Vel, da bør du komme deg UT PÅ TUR!(Med et familiemedlem eller en kollega)

SkillTripAdvisor er løsningen!

Med SkillTripAdvisor kan du finne personer i din organisjasjon eller i din familie som er i nærheten. Man kan også sende en forespørsel til dem om de har lyst til å gå tur med deg. Velg en tur i appen og kom deg ut!

Appen er en PowerApp med PowerAutomate Flows i bakkant. Med Dataverse som datalag er denne løsninge NoCode!

Appen henter ut GPS koordinater fra GPS i telefonen eller IP-location og kalkulerer lengde mellom GPS koordinatene til kolleger og familiemedlemmer.

Ps, appen er work in progress.

  • Lego Shark Tank
  • Power User Love

(drone) Optical recognition basics

Optical recognition technology will recognize real life objects and make it possible to store the data. Our mission is not to reinvent optical recognition, but to concentrate on Extract, Transform, Load (ETL) process into the Azure cloud. We want to be able to discover certain objects (lego men) during the drone flight, and perform certain actions if those objects are discovered (eg. send Vipps invoice as a matter to repay for being unable to hide from drone).

Lego Object recognition

As a minimum, we want to be able to detect lego men and be able to run an action if any objects of this type are present. That is a simple task, requires no connection to any form of table/db.

What is the top bar for the scope of this run, is to be able to distinguish between different Lego men, either by face recognition (that is a very high expectation), or just color/object recognition

In the end: we want our drone to be able to collect optical data, transfer it to the Azure, compare with any existing data in the table/database and make a base for a report.
(Diagram coming later)

Drone 1st flight – operated through code

Connecting to the drone has been a small challenge in itself, but with that behind us, we’re moving forward.

Here we are trying to control the Drone using Code, for this purpose we have selected Python as our coding language.

Controlling_Drone_Through_Code & Try to capture Objects.

So while flying the drone, It will capture the Video and Images of the objects like Legos.

Architecture Diagram How Drone will process the objects.

Lego Challenge

Til denne oppgaven trenger du:

  • Lego
  • Målebånd

Oppgave:

  • Bygg det høyeste tårnet du kan innen 15 min, hvor ingen brikker av samme farge treffer hverandre.
  • Alle deltakerne som ønsker å delta joiner ACDC Main kanalen og deler kamera av legobyggingen. Resten av oss følger via Youtube
  • Når tiden er ute har du 1 min på å ta bilde av tårnet med målestokk og poste på ACDC Main Channel ( Discord )
  • Challenge starter kl 21:00 i kveld og det er premie til vinneren!

#Vipps payment API smackdown

Vi har vært så heldige å få tilgang til APIene hos Vipps og som første mann til å gjennomføre en betaling vha APIet ble det hettegenser i gave =)

Tankerekke for å rekke å betale for hettegenseren får noen andre kjøpte den var:

  1. Vi har fått opplyst at en egen utvikler-vipps-app må installeres, ok da gjør vi det.
  2. Åpne githup repo’et til vipps og let etter “Getting started”:
    https://github.com/vippsas/vipps-developers#vipps-developers
  3. Les med en gang “Get an access token”, bra da åpner vi “Postman” for litt rask testing.
  4. Lag et nytt POST request i postman med linken beskrevet og parameterne med nøkler som trengs.
POST med nøkler i header og mottak av access_token (bearer)
  1. Finn ut hvordan man gjør en betaling… sjekk github igjen.
  2. Åj.. hmm.. “Swagger” (generert dokumentasjon for faktiske API kall), klikk på den
  3. “Initiate Payment”… jaaa den er det nok
    • Da dupliserer vi kallet vi har i Postman
    • Legger inn en Authorization header med “bearer ” + access tokenet vi fikk
Initiate Payment API swagger documentation
  1. Legger i tillegg inn en “body”, hva som skal stå i body finnes det et eksempel på i swagger dokumentasjonen, eneste man MÅ endre der er “merchantSerialNumber” og “mobileNumber”, med det gjort er det bare å klikke “Send”…
  1. Kopier ut verdien til “url” feltet som kom i retur.
  2. Test i en nettleser.
  1. NÅ trengs mobilen 🙂 et varsel kommer inn på mobilen, godkjenner betalingen der og vipps var vi i boks.
  2. Nettleseren blir nå sendt over til adressen oppgitt i “callback url” spesifisert i body’n.
  3. Fiks ferdig, betalt og genser i posten 🙂

Shark tank – Power Chess idea ♟️

Interessen rundt sjakk har eksplodert det siste året, blant annet The New York Times melder om rekordsalg og en økning på over 1000% på salg av fysiske sjakkbrett. Økningen i salget er hovedsakelig påvirket av den populære serien the Queen’s Gambit, og streaming programmet PogChamp. Men det er et problem, vi er midt i en pandemi og ingen kan spille fysisk sjakk mot hverandre.

Heldigvis sitter vi på løsningen: Power Chess!
Ved å bruke Power Chess kan du spille et fysisk sjakkparti mot hvem du vil uansett hvor i verden motstanderen befinner seg.

Slik fungerer det:

Hver spiller har hvert sitt sjakkbrett som er koblet på internett og bruker AI som identifiserer hvilke trekk som er utført. Når et sjakktrekk er identifisert vil sjakkbrettet til motstanderen utføre det samme sjakktrekket.

Teknologien som vi bruker for å gjenskape en fysisk handling kan bli gjenbrukt til andre business caser.

Teknologien som vi bruker for gjenkjenne en fysisk handling ved hjelp av AI, for så å digitalisere den for analyse og berikelse, kan også gjenbrukes til helt andre forretningscaser, som for eksempel. å lære roboter å utføre komplekse handlinger.

Til denne posten claimer vi:

Strikk og binders!

Her er en løsning for å analysere et bildes primære farger – i dette tilfellet de fem mest fremtrende farger – forenklet ned til Red, Green, Yellow Purple, Blue.

Løsningen er et API i API Management, som kaller en Logic App. Logic App’en kaller CloudMersive sitt “Image Recognition & Processing API” (https://api.cloudmersive.com/docs/image.asp). Dette API’et returnerer et JSON array bestående av RGB-verdier – de 5 mest fremtrende fargene.

Responsen var CloudMersive-API’et dyttes inn i en C# Function App med HTTP Trigger. Denne funksjonen oversetter først fra RGB til HSL fargemodell, og deretter fra HSL til “fargenavn”. Koden fra RGB til HSL er stjålet fra: https://www.programmingalgorithms.com/algorithm/rgb-to-hsl/

Et array av fargenavn sendes til Event Hub for statistikk-formål, samt returneres tilbake til API Management og ut til klient.

Det gjenstår litt jobb for å sikre både API’et, Logic App’en og Function app’en.

Koble API Management til Logic App
Koble API Management til Logic App
Logic App som kaller CloudMersive, Function App, sender response til Event hub og tilbake til APIM
Rødt ugress i grønn åker
Response for grønn åker
[{“colorName”:”Green”},{“colorName”:”Green”},{“colorName”:”Green”},{“colorName”:”Green”},{“colorName”:”Red”}]

Rødt ugress i gul åker
Response fra gul åker
[{“colorName”:”Yellow”},{“colorName”:”Yellow”},{“colorName”:”Yellow”},{“colorName”:”Red”},{“colorName”:”Yellow”}]

Claiming badges