Mídia 'programática' = Me-engana-que-eu-gosto 'pragmática'.

Share Button

0078

É preciso ter muito cuidado com a ressignificação das palavras nesses tempos de internet e de falsas promessas –  de sociabilização e sociabilidade –  das redes…

A história nos conta inúmeros casos de embustes travestidos de ‘inovação’, os quais não são mais que querências…

As tais redes sociais, por exemplo – querem-se ‘mídias’ –, mas  andam nada sociáveis.

Aquilo que já aconteceu com termos como ‘agregação de valor’ e ‘qualidade total’ – dando voz a imbecilidades enganadoras como, aliás, alertou Umberto Eco -, volta a acontecer nesta era de ‘compliance’, ‘endomarketing’ e ‘engajamento’.

Outro dia mesmo, uma professora universitária ‘explicava’ (em artigo numa revista popular) que iniciativas como ‘Uber’ caracterizavam uma economia colaborativa — uma impropriedade absoluta.

Um ‘pós-tudo’ lastreado mais em tecnologia do que em humanização, e uma propaganda que cedeu ao apelo gélido do Big Data, apontam para a instrumentalização dos próprios profissionais sob o mantra ininteligível de zeros e uns. É o deus-mercado ditando seu do-de-ca-ló-gi-co. Neste ambiente, somos como cópias, reproduções ‘perfeitas’ – numa ‘felicidade de Facebook’, a la ‘Substitutos‘ [‘surrogates’ no filme de Jonathan Mostow, (2009), sobre os quadrinhos de Robert Venditti].

O algoritmo vibra algo fora do ritmo. E dançamos.

Sempre que a sociedade – e, nela, além de pessoas de boa fé, as empresas – escolheram seguir arrivistas ao invés de checar evidências científicas de fabricações enganosas disfarçadas de ‘innovation’, o resultado foi de frustração e prejuízos.

Quando delegamos nossas ações repetitivas a robôs, acertamos. Mas erramos – feio – quando o fazemos com as nossas decisões.

A ‘revolução’ virá – é possível – numa re-humanização das redes sociais, na contramão do Big Data. E o pensamento de RP (em nosso viés brasileiro, bem entendido) pode fazer diferença numa decisão de governança.

Tendo estudado Ciência da Informação e Análise de Sistemas por três décadas (e atuado ainda como professor de Teoria Geral de Sistemas, na UFRJ por 3 anos, e também como consultor de sistemas de informação na Accenture por outros 3), posso afirmar que:

O domínio dos dados, que pode levar (ou não) à informação, que pode levar (ou não) ao conhecimento, que pode levar (ou não) à sabedoria vem – tem que vir – a serviço dos indivíduos e das coletividades. Quando há inversão desse fluxo e as pessoas – cartelizadas – passam a servir aos ‘bots’, a profecia antevista por Arthur C. Clarke em ‘A Sentinela’ (e tão bem retratada em ‘2001: uma odisseia no espaço’ por Stanley Kubrick) se concretiza numa super-população de replicantes (para citar Philip K. Dick e Ridley Scott) à Geração 9000 do HAL (Heuristically programmed ALgorithmic computer). (*)

Bottom line: pessoas servindo a máquinas é a questão que o fenômeno apelidado Big Data trouxe. E deveu-se não à internet, mas ao surgimento (e ao ‘sucesso’) das redes sociais – sobretudo no campo dos negócios (e também da política e da ‘segurança nacional’, como o Wikileaks desvelou). Quando as redes se travestiram em ‘mídias sociais’ (terminologia que não adoto) surgiu um outro fenômeno-problema que, como tal, exigiria problematização, estudo (a academia seria o ‘locus’ ideal para tal). Reflexão sobre isto não será feita no mercado – simplesmente porque o mercado está mergulhado no mesmo, ocupadíssimo em operá-lo.

‘Alguém descobriu a água – não foi o peixe’. Marshall McLuhan.

0079

(*) O super-computador (um ‘HAL 9000’) de bordo da Discovery One recebera instruções a mais em relação à tripulação. Tais instruções levavam em consideração a continuação (e a manutenção) da missão independente da tripulação humana (no caso, composta por 5 pessoas). Tal fato levou a uma dubiedade (que a princípio os organismos cibernéticos binários não são capazes de ‘resolver’) e consequente ação que corrompeu o entendimento (pela máquina, posta em situação de dilema) das 3 leis da robótica (de Isaac Asimov), resultando na morte (por assassinato) de toda a tripulação com exceção do astronauta David Bowman (interpretado pelo ator Keir Dullea):

1ª. Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal;
2ª. Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a 1ª. Lei;
3ª. Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a 1ª. ou a 2ª. Leis.
OBS.: Asimov, posteriormente, acrescentou uma ‘Lei Zero’, acima de todas as outras; um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *