Hej Elvis1984 - eller hvad du nu hedder
Jeg har arbejdet på et projekt som omhandlede hentning af netop de informationer du ønsker. Vi udviklede en webscraper, som selv gennemsøgte de relevante dele af nettet for de data vi ønskede. Disse data gemte vi så ned, og så kørte søgemaskinen med et fast interval og genopfriskede alle data. Når brugeren søger, startes der ikke 10-15 søgemaskiner, men i stedet foretages en splitsekunds søgning i vores database.
Det har været et stort projekt - og der er lagt flere årsværk i det i dag. Så når du spørger om en pris på sådan et stykke arbejde, skal du nok nærmere spørge - hvad koster en god udvikler i 2-3 år, eller hvad koster 3 i et år?
Udviklere af den kaliber findes typisk gennem et job opslag, på f.eks. it-jobbank.dk. Tænker du fritidsprogrammører der kunne fristes til et sådan projekt, så ville jeg nok først sætte mig godt og grundigt ind i emnet, og opsøge hjælp f.eks. stackoverflow, og på den måde skabe lidt interesse.
Alternativt kunne du tjekke googles side ud om topical searchengines?:
https://developers.google.com/custom-search/docs/topicalDet kunne måske give noget inspiration til en knap så grundig - men måske mere realistisk løsning.
Det jeg prøver på at sige er, det du beskriver kan blive et ENORMT projekt. Så måske skal du undersøger det lidt nærmere og finde en løsning som er afstemt med dine ambitioner. Har du ambitioner til skyerne - så har du fundet det helt rigtig projekt, og du går en spændende fremtid i møde
@Rune: Ingen udover google kender deres algoritmer
Et kvalificeret bud vil være at man giver søgemaskinen en række startsteder på nettet, og herudfra kan den så afsøge links på alle de sider den finder. Hvert link tilføjes en unik liste, og så søger siderne igennem. Google Pagerank sætter dog nogle begrænsninger for hvor mange sider der gennemsøges per domæne for at det ikke skal løbe løbsk.
Indlæg senest redigeret d. 30.11.2014 11:42 af Bruger #17368