Du har kanskje hørt om "The weird side of youtube" og slike ting som det, hvor man finner bizarre videoer/personer som gir de fleste litt gåsehud til tider... Jeg vil dra enda dypere inn i internett. Ikke bare på siden Youtube, men hele forbanna WWW! The weird side of WWW!
http://img.hardware.no/1050/1050951/netttopp.956x537.jpg
I flere saker kan man lese om skjulte nettverker/forumer hvor man finner aktive, pedofile personer som deler sine bilder, meninger osv. til andre innenfor dette nettverket på nettet. Også andre skremmende ting som har blitt sporet opp rundt omkring på internettet, er de såkalte snuff-filmene mange kanskje kjenner til som 3 guys 1 hammer, som har blitt tilgjengelig på de fleste search engines senere. Terrornettverker og andre hemmelige organisasjoner finnes kanskje gravd ned et eller annet sted på internett. Hvem vet...
Deep web er skjult informasjon innenfor internett som ikke kan spores på vanlige search engines som Google eller andre standard search engines.
Man kan dele opp deep web ressurser i flere kategorier;
- Dynamic web pages a web page with web content that varies based on parameters provided by a user or a computer program.
- Unlinked content: pages which are not linked to by other pages
- Private Web: sites that require registration and login (password-protected resources)
- Contextual Web: pages with content varying for different access contexts
- Limited access content: sites that limit access to their pages in a technical way
- Scripted content: pages that are only accessible through links produced by JavaScript as well as content dynamically downloaded from Web servers via Flash or Ajax solutions
- Non-HTML/text content: textual content encoded in multimedia (image or video) files or specific file formats not handled by search engines.
For å få nærmere tilgang på slike nettsteder som dette, finnes det dataprogram med såkalte søkeroboter (search crawlers) som er designet for å samle sammen nettsider for å sende det videre til søkemotoren man bruker. Det vil si at når man f.eks. besøker en internett-side, vil søkeroboten gjennomsøke siden, finne andre lenker til andre sider, for og så laste inn disse sidene også til den har funnet absolutt alt det man har bedt den om å søke på.
Jeg har ikke mye erfaring med dette og vil gjerne hørre innspill om andre som kanskje har en vis kompetanse innenfor slike ting som dette. Det virker som noe veldig spennende å gjøre på nettet (og kanskje samtidig litt skummelt av de man faktisk kan grave frem fra nettet). Jeg har lest masse forskjellig om slike ting som dette fra forskjellige forum og artikler, og er ekstremt interessert i å vite mer om dette! Håper det er flere som vil føle det samme.
Kilder: - Wikipedia.org
********************
Tar gjerne imot kritikk av alle former vis noe ikke skulle stemme med innlegget mitt!
http://img.hardware.no/1050/1050951/netttopp.956x537.jpg
I flere saker kan man lese om skjulte nettverker/forumer hvor man finner aktive, pedofile personer som deler sine bilder, meninger osv. til andre innenfor dette nettverket på nettet. Også andre skremmende ting som har blitt sporet opp rundt omkring på internettet, er de såkalte snuff-filmene mange kanskje kjenner til som 3 guys 1 hammer, som har blitt tilgjengelig på de fleste search engines senere. Terrornettverker og andre hemmelige organisasjoner finnes kanskje gravd ned et eller annet sted på internett. Hvem vet...
Deep web er skjult informasjon innenfor internett som ikke kan spores på vanlige search engines som Google eller andre standard search engines.
Man kan dele opp deep web ressurser i flere kategorier;
- Dynamic web pages a web page with web content that varies based on parameters provided by a user or a computer program.
- Unlinked content: pages which are not linked to by other pages
- Private Web: sites that require registration and login (password-protected resources)
- Contextual Web: pages with content varying for different access contexts
- Limited access content: sites that limit access to their pages in a technical way
- Scripted content: pages that are only accessible through links produced by JavaScript as well as content dynamically downloaded from Web servers via Flash or Ajax solutions
- Non-HTML/text content: textual content encoded in multimedia (image or video) files or specific file formats not handled by search engines.
For å få nærmere tilgang på slike nettsteder som dette, finnes det dataprogram med såkalte søkeroboter (search crawlers) som er designet for å samle sammen nettsider for å sende det videre til søkemotoren man bruker. Det vil si at når man f.eks. besøker en internett-side, vil søkeroboten gjennomsøke siden, finne andre lenker til andre sider, for og så laste inn disse sidene også til den har funnet absolutt alt det man har bedt den om å søke på.
Jeg har ikke mye erfaring med dette og vil gjerne hørre innspill om andre som kanskje har en vis kompetanse innenfor slike ting som dette. Det virker som noe veldig spennende å gjøre på nettet (og kanskje samtidig litt skummelt av de man faktisk kan grave frem fra nettet). Jeg har lest masse forskjellig om slike ting som dette fra forskjellige forum og artikler, og er ekstremt interessert i å vite mer om dette! Håper det er flere som vil føle det samme.
Kilder: - Wikipedia.org
********************
Tar gjerne imot kritikk av alle former vis noe ikke skulle stemme med innlegget mitt!