In een tijd van bezuinigingen en een klimaat van angst voor kindermishandeling, is het misschien niet zo verwonderlijk dat maatschappelijk werkers zich tot nieuwe technologie hebben gewend voor hulp.
Lokale autoriteiten - die worden geconfronteerd stijgende vraag en een tekort aan £ 800m financiering - beginnen te vragen of big data kan helpen om kwetsbare kinderen te identificeren.
Kan een computerprogramma een probleemfamilie markeren, een potentieel slachtoffer identificeren en een andere Baby P of Victoria Climbié voorkomen?
Jaren geleden zouden dergelijke vragen science fiction zijn geweest; nu zijn ze dingen van de wetenschap.
Bristol experimenteert met deze nieuwe mogelijkheden en worstelt met de morele en ethische vragen die daarbij horen.
Gary Davies, die toezicht houdt op het voorspellingssysteem van de raad, ziet de voordelen.
Hij betoogt dat het niet betekent dat mensen uit het besluitvormingsproces worden gehaald; het betekent eerder dat we gegevens gebruiken om te voorkomen dat mensen fouten maken.
"Het zegt niet dat je seksueel wordt uitgebuit, of dat je vermist raakt", zegt Davies. “Het toont de gedragskenmerken van uitgebuit worden of vermist worden. Het markeert dat risico en die kwetsbaarheid. '
Dergelijke technieken hebben jaren op andere gebieden gewerkt. Machine learning-systemen die zijn gebouwd om enorme hoeveelheden persoonlijke gegevens te ontginnen, worden al lang gebruikt om klantgedrag in de particuliere sector te voorspellen.
Computerprogramma's beoordelen hoe waarschijnlijk het is dat we in gebreke blijven met een lening, of hoeveel risico we lopen voor een verzekeringsmaatschappij.
Ontwerpers van een voorspellend model moeten een 'uitkomstvariabele' identificeren, die de aanwezigheid aangeeft van de factor die ze proberen te voorspellen.
Voor kinderbescherming kan dat een kind zijn dat het zorgsysteem betreedt.
Vervolgens proberen ze kenmerken te identificeren die vaak voorkomen bij kinderen die in het zorgsysteem terechtkomen. Zodra deze zijn geïdentificeerd, kan het model worden uitgevoerd op basis van grote gegevenssets om andere personen te vinden die dezelfde kenmerken delen.
The Guardian heeft details verkregen van alle voorspellende indicatoren die in aanmerking kwamen voor opname in het kinderbeveiligingssysteem van Thurrock Council. Ze omvatten geschiedenis van huiselijk geweld, jeugddelinquenten en spijbelen.
Meer verrassende indicatoren zoals huurachterstanden en gezondheidsgegevens werden aanvankelijk overwogen, maar uitgesloten van het definitieve model. In het geval van zowel Thurrock, een gemeente in Essex, als de Londense wijk Hackney, kunnen gezinnen worden gemarkeerd als maatschappelijk werkers als potentiële kandidaten voor het Troubled Families-programma. Via deze regeling ontvangen de raden subsidies van de centrale overheid voor het helpen van huishoudens met langdurige problemen zoals werkloosheid.
Dergelijke systemen geven onvermijdelijk aanleiding tot bezorgdheid over de privacy. Wajid Shafiq, de CEO van Xantura, het bedrijf dat zowel Thurrock als Hackney voorspellende analyses levert, staat erop dat er een evenwicht moet worden gevonden tussen privacyrechten en het gebruik van technologie om een publiek goed te leveren.