iPhone: Slik bruker du iOS-tekstgjenkjenningsfunksjoner

Vision i iOS 11 har alt du trenger for å lage en app som kan gjenkjenne teksttegn med implementering som skjer samtidig. Du trenger ingen teknisk kodingskunnskap – det er ganske enkelt å navigere i funksjonen. Dessuten er implementeringen sømløs.

Visjonsrammeverk

Visjonsrammeverket lar deg enkelt implementere enhver oppgave som involverer datamaskindetaljer. Strukturen utfører gjenkjenning av ansikts- og ansiktslandemerker, strekkodegjenkjenning, bilderegistrering, generell funksjonssporing og tekstgjenkjenning. Vision lar deg også bruke tilpassede Core ML-modeller for oppgaver som klassifisering eller objektdeteksjon.

VN DetectTextRectanglesRequest

Den  VN DetectTextRectanglesRequest  er et bildeanalyse anmodning som finner områder med synlig tekst i et bilde; funksjonen returnerer teksttegn som en rektangulær avgrensningsramme med opprinnelse og størrelse.

Hvis du er vant til å bruke swift og har programmert en stund, så lurer du sannsynligvis på hva nytten av Vision er når det er andre funksjoner som image og AVFoundation. Vel, Vision er mer nøyaktig og mer grei. Funksjonen er også tilgjengelig på en rekke plattformer. Bruk av Vision kan imidlertid kreve mer prosessorkraft og behandlingstid.

For å bruke Vision for tekstgjenkjenning, trenger du Xcode 9 og en enhet som kjører iOS 11.

Opprette et kamera med Avcapture

Først må du lage et kamera med  AVCapture ; dette er ved å initialisere ett objekt AVcapturesession for å utføre sanntid eller offline fangst. Etter det gjør du økten til enhetstilkoblingen.

For å spare tid fra å bygge et brukergrensesnitt for appen din, bør du vurdere å ha et startprosjekt. Til å begynne med vil dette gi deg tid til å fokusere på å lære Vision-rammeverket.

Åpne startprosjektet ditt. Visningene i storyboardet skal være klare og konfigurert for deg.

På  ViewController.swift, se etter kodedelen  med funksjoner og uttak.

Under uttaket  - ImageView, angir en økt for  AVcapturesession - denne brukes når du vil at handlinger skal utføres basert på en direktestrøm.

Still  AVcapturesession  og  AVmediatype  til video siden du vil utføre kameraopptaket for å la det kjøre kontinuerlig

Definer utdata- og inngangsenheten

Inngangen er det kameraet vil se, og utgangen er videoen i et bestemt type format KCVPixelFormatType_32GRA.

Til slutt, legg til et  underlag  som inneholder videoer til  imageView  og start økten. Funksjonen er kjent som  inViewdidload.  Du må også angi rammen til laget.

Kall funksjonen i  viewWillAppear-  metoden.

Siden grensene ikke er endelige ennå, overstyr  metoden viewDidLayoutSubviews ( )  for å oppdatere de bundne lagene.

Etter utgivelsen av iOS 10 er det nødvendig med en ekstra oppføring i Info.plist, dette gir en grunn til å bruke kameraet. Du bør også angi Privacy-Camera Usage Description.

Tekstgjenkjenning; Hvordan Vision Framework fungerer

Det er tre trinn for å implementere Vision på appen.

Behandlere –  dette er når du vil at rammeverket skal gjøre noe etter at forespørselen er kalt.

Observasjoner -  dette er hva du vil gjøre med dataene du har levert, og begynner med én forespørsel

Forespørsler –  dette er når du ber om Detect-rammeverket

Ideelt sett oppretter du én tekstforespørsel som  VNdetecttextrectanglesrequest . Dette er en slags  VNrequest  som grenser rundt teksten. Etter at rammeverket har fullført søknaden, fortsetter du med å kalle opp  Dettexthandler-  funksjonen. Du vil også vite den nøyaktige rammen som ble gjenkjent, sett den til  Reportcharacterboxes =True.

Definer deretter observasjonene som inneholder alle resultatene av  VNdetecttextrectanglesrequest , husk å legge til Vision til utgangskameraet. Siden Vision avslører API-er på høyt nivå, er det sikkert å jobbe med det.

Funksjonen sjekker om  Cmsamplebuffer  eksisterer og PutOut  Avcaptureoutput . Du bør deretter fortsette å lage én variabel  Requestoptions  som 1 Dictionary Type  VNimageoption . Den  VNmage  alternativ er en type struktur som inneholder egenskaper og data fra kameraet. Du bør deretter opprette  VNimagerequesthandler  og utføre tekstforespørselen.

Tegne grenser rundt den oppdagede teksten

Du kan starte med å ha rammeverket for å tegne to bokser, en for hver bokstav den oppdager og den andre for hvert ord. Tabeller er kombinasjonen av alle tegnboksene som forespørselen din vil finne.

  • Definer punktene på visningen for å hjelpe deg med å plassere boksene.
  • Etter det, lag en  CALaye r; bruk  VNrectangleobservation for  å definere begrensningene dine, noe som gjør prosessen med å skissere boksen enklere.

Du har nå lagt ut alle funksjonene dine.

For å koble sammen prikkene dine, start med å la koden kjøre asynkront. Du bør deretter sjekke om det finnes en region i resultatene dine fra  VNTextObservation .

Du kan nå kalle inn funksjonen din, som vil tegne en boks innenfor området. Sjekk om det er tegnbokser i regionen, og ring deretter inn tjenesten som bringer inn en boks rundt hver bokstav.

Deretter oppretter du en variabel  RequestOptions. Du kan nå opprette et  VNImageRequestHandler-  objekt og utføre tekstforespørselen du opprettet.

Til slutt er det siste trinnet å kjøre visjonskoden din med direktesendingen. Du må ta videoutgangen og konvertere den til  Cmsamplebuffer.

Ytterligere tips

Prøv alltid å beskjære bildet og behandle bare delen du trenger. Dette vil redusere behandlingstiden og minneavtrykket

Slå på språkkorrigering når du arbeider med ikke-numeriske tegn, og slå den av når du arbeider med et numerisk tegn

Inkluder validering for gjenkjente tallstrenger for å bekrefte nøyaktigheten og eliminere visning av falsk verdi til brukeren.

Dokumentkamerakontrolleren er den beste følgesvennen for tekstgjenkjenning siden bildekvalitet spiller en betydelig rolle i tekstgjenkjenning.

Vurder å angi en minste teksthøyde for å øke ytelsen.

Med Vision har du alt du trenger for tekstgjenkjenning. Siden Vision er enkel å bruke og tar kort tid å implementere, tilsvarer det nesten å spille med Legos. Prøv å teste appen din på forskjellige objekter, fonter, belysning og størrelser. Du kan også imponere deg selv ved å kombinere Vision med Core ML.


Leave a Comment

2 måter å skille lyd fra video på iPhone

2 måter å skille lyd fra video på iPhone

I tillegg til å bruke videoredigeringsapper for å skille lyd fra video på iPhone, finnes det mange andre måter å gjøre det på, for eksempel å bruke snarveier.

Synkroniser data mellom iPhone og iPad med bare noen få enkle trinn

Synkroniser data mellom iPhone og iPad med bare noen få enkle trinn

Å synkronisere iPhonen med iPaden er en fin måte å forbedre arbeidsflyten på. Dette gir deg sømløs tilgang til apper, dokumenter og bilder på begge enhetene.

Slik endrer du mappefarge i iPhone Files-appen

Slik endrer du mappefarge i iPhone Files-appen

Fil-appen på iOS 26 har et ekstra alternativ for å endre mappefarger, slik at du enkelt kan kategorisere mapper av samme type og med samme lagringsplass.

Måter å overføre kontakter fra iPhone til Android

Måter å overføre kontakter fra iPhone til Android

Når man bytter fra én enhet til en annen, må brukerne kopiere data hvis de ikke vil miste dem. Så hvordan kan man overføre kontakter fra iPhone til Android?

13 nyttige iPhone-tilgjengelighetsfunksjoner som folk ofte overser

13 nyttige iPhone-tilgjengelighetsfunksjoner som folk ofte overser

Fra å justere tekststørrelsen og kontrollere enheten med bare øynene til å låse opp en skjult knapp på baksiden, tilbyr denne menyen verktøy som virkelig kan endre måten du bruker iPhonen din på til det bedre.

Endre disse iPhone-innstillingene for batterilevetid hele dagen!

Endre disse iPhone-innstillingene for batterilevetid hele dagen!

Med bare noen få smarte justeringer kan du forlenge batterilevetiden betraktelig uten å endre måten du bruker telefonen på.

Instruksjoner for nedlasting av Star Wars-emojier til iPhone

Instruksjoner for nedlasting av Star Wars-emojier til iPhone

Det finnes mange apper som hjelper deg med å legge til emojier du kan bruke på iPhonen din, for eksempel Star Wars-appen. Brukere vil ha mange Star Wars-tema-emojier de kan bruke til meldinger eller annet innhold du vil bruke på iPhonen.

Hva er den oransje og grønne prikken i hjørnet av iPhone-skjermen?

Hva er den oransje og grønne prikken i hjørnet av iPhone-skjermen?

Fra og med iOS 14 vil brukere se en grønn eller oransje prikk nær signallinjen på iPhone-skjermen når de åpner visse apper. Dette er en av de nye funksjonene for personvern som Apple har lagt til.

Slik lager du en dokumentsignatur på iPhone

Slik lager du en dokumentsignatur på iPhone

Med Apples innebygde verktøy og apper kan du raskt signere dokumenter på iPhonen din, enten det er PDF-filer, juridiske kontrakter, skoleskjemaer eller mer.

Slik sjekker du kjøpshistorikken i Apple App Store

Slik sjekker du kjøpshistorikken i Apple App Store

Gjennom kjøpshistorikken din i App Store vet du når du lastet ned appen eller spillet, og hvor mye du betalte for den betalte appen.