CURL er et kommandolinjeværktøj til at lave HTTP-anmodninger og hente data fra .ebservere. Det bruges til at automatisere HTTP-anmodninger til .ebservere. CURL er bare et værktøj til at få data og manipulere HTTP-anmodninger. Når du får data, kan du rør det til andre programmer til at gøre nogen form for data parsing afhængigt af dit behov. Disse dage CURL bruges også til at teste REST API ‘ er (Application Programming Interfaces)., Da den er meget let og let kan findes på enhver Linu. – distribution, bruges den i vid udstrækning til at udføre forskellige opgaver.

i denne artikel vil jeg vise dig, hvordan du installerer og bruger CURL på Ubuntu 18.04 Bionic Beaver. Lad os komme i gang.

Installation af KRØLLER

Første opdatering af den nye pakke repository cachen i din Ubuntu maskine med følgende kommando:

$ sudo apt-get update

package repository cache skal være opdateret.,

CURL er tilgængelig i den officielle pakke repository af Ubuntu 18.04 Bionic Beaver.

kan Du køre følgende kommando til at installere KRØLLE på Ubuntu 18.04:

$ sudo apt-get install krølle

CURL skal være installeret.

brug af CURL

i dette afsnit af artiklen vil jeg vise dig, hvordan du bruger CURL til forskellige http-relaterede opgaver.

kontrol af en URL med CURL

Du kan kontrollere, om en URL er gyldig eller ej med CURL.,

Du kan køre følgende kommando for at kontrollere, om en URL for eksempel https://www.google.com er gyldig eller ej.

$ krølle https://www.google.com

Som du kan se på det nedenstående screenshot, en masse tekster vises på terminalen. Det betyder, at URL ‘ en https://www.google.com er gyldig.

Jeg løb følgende kommando bare for at vise dig, hvordan en dårlig URL ser ud.,

$ krølle http://notfound.notfound

Som du kan se på det nedenstående screenshot, det siger ikke Kunne løse vært. Det betyder, at URLEBADRESSEN ikke er gyldig.

du Henter en Webside med KRØLLER

Du kan hente en webside fra en URL-adresse ved at bruge CURL.

format med kommandoen:

$ curl-o FILNAVN URL

Her, FILNAVN er det navn, eller stien til den fil, hvor du vil gemme de downloadede webside., URL er placeringen eller adressen på weebsiden.lad os sige, at du vil do .nloade den officielle CUREBSIDE for CURL og gemme den som curl-Officiel.html-fil. Kør følgende kommando for at gøre det:

$ curl-o curl-official.html https://curl.haxx.se/docs/httpscripting.html

denne webside er hentet.

som du kan se fra output fra LS-kommandoen, gemmes weebsiden i curl-official.html-fil.,

Du kan også åbne filen med en browebbro .ser, som du kan se fra skærmbilledet nedenfor.

Downloade en Fil med KRØLLER

Du kan også downloade en Fil fra internettet, ved at bruge CURL. CURL er en af de bedste kommandolinjefil do .nloadere. CURL understøtter også genoptagne do .nloads.

format CURL kommando for at downloade en fil fra internettet, er:

$ curl-O FILE_URL

Her FILE_URL er link til den fil, du ønsker at downloade., – O-indstillingen gemmer filen med samme navn, som den er i den eksterne webebserver.lad os sige, at du vil do .nloade kildekoden til Apache HTTP-server fra internettet med CURL. Ville du køre følgende kommando:

$ curl-O http://www-eu.apache.org/dist//httpd/httpd-2.4.29.tar.gz

filen bliver hentet.

filen do .nloades til den aktuelle arbejdsmappe.,

Du kan se i det markerede afsnit af output fra LS-kommandoen nedenfor, http-2.4.29.tjære.g. – fil, jeg lige har do .nloadet.

Hvis du vil gemme filen med et andet navn end den i den eksterne webebserver, kører du bare kommandoen som følger.

$ curl-o apache-server.tjære.gz http://www-eu.apache.org/dist//httpd/httpd-2.4.29.tar.gz

download er fuldført.,

som du kan se fra det markerede afsnit af output fra LS-kommandoen nedenfor, gemmes filen i et andet navn.

Genoptage Downloads med KRØLLER

Du kan genoptage mislykkede overførsler samt med KRØLLER. Dette er, hvad der gør CURL en af de bedste kommandolinje do .nloadere.

Hvis du brugte-o mulighed for at do .nloade en fil med CURL, og den mislykkedes, kører du følgende kommando for at genoptage den igen.,

$ curl-C – -O YOUR_DOWNLOAD_LINK

Her YOUR_DOWNLOAD_LINK er WEBADRESSEN for den fil, du forsøgte at downloade med KRØLLER, men det lykkedes ikke.

Lad os sige, du forsøger at hente Apache HTTP Server-source arkiv og netværket blev afbrudt halvvejs, og du ønsker at genoptage overførslen igen.,

Kør følgende kommando for at genoptage overførslen, med KRØLLE:

$ curl-C – -O http://www-eu.apache.org/dist//httpd/httpd-2.4.29.tar.gz

download er genoptaget.

Hvis du har gemt filen med et andet navn end det, der er i ekstern web-server, så skal du køre kommandoen som følger:

$ curl-C – -o FILNAVN DOWNLOAD_LINK

Her FILNAVN er navnet på den fil, du har defineret for download., Husk, at filnavnet skal matche det filnavn, du forsøgte at gemme do .nloadet, som når do .nloadet mislykkedes.

Begræns do .nloadhastigheden med CURL

Du har muligvis en enkelt internetforbindelse tilsluttet den Wi-Fi-router, som alle i din familie eller på kontoret bruger. Hvis du Do .nloader en stor fil med CURL, kan andre medlemmer af det samme netværk have problemer, når de forsøger at bruge internettet.

Du kan begrænse do .nloadhastigheden med CURL, hvis du vil.,

format med kommandoen:

$ krøller –limit-rate DOWNLOAD_SPEED -O DOWNLOAD_LINK

Her DOWNLOAD_SPEED er den hastighed, som du ønsker at downloade filen.

Lad os sige, at du ønsker download-hastighed til at være 10KB, køre følgende kommando for at gøre det på:

$ krøller –limit-rate 10K -O http://www-eu.apache.org/dist//httpd/httpd-2.4.29.tar.gz

Som du kan se, er den hastighed bliver begrænset til 10 Kilo Byte (KB), hvilket svarer til næsten 10000 bytes (B).,

Sådan får du http-headeroplysninger ved hjælp af CURL

Når du arbejder med REST-API ‘ er eller udvikler websebsteder, skal du muligvis kontrollere HTTP-headerne på en bestemt URL for at sikre dig, at din API eller dit websiteebsted sender de HTTP-headere, du ønsker. Du kan gøre det med CURL.,

kan Du køre følgende kommando for at få header information af https://www.google.com:

$ curl-jeg https://www.google.com

Som du kan se på det nedenstående screenshot, alle HTTP-svar overskrifter med https://www.google.com er angivet.

Sådan installerer og bruger du CURL på Ubuntu 18.04 Bionic Beaver. Tak for at læse denne artikel.