,

Publicidade comportamental: há livre-arbítrio no consumo do século XXI?

cyber-monday-retail-sales

O desenvolvimento tecnológico causou alterações na dinâmica social que se compõe, atualmente, por uma economia movida pela informação. Em tal contexto, destacam-se empresas cujo modelo de negócio é fundado em dados pessoais e, também, utilizam algoritmos e inteligência artificial para aperfeiçoar e personalizar seus produtos, serviços e atendimento.

Indivíduos, apesar de terem se tornado mais ativos em um mundo digital, com ferramentas e instrumentos que permitem acesso facilitado e instantâneo às informações, ainda se mantêm como parte vulnerável nas relações de consumo. A atração da atenção do consumidor é disputada pelas empresas visando à coleta de informações e ao oferecimento de produtos e serviços. De acordo com Lace, indivíduos se tornaram consumidores de vidro. Suas informações estão expostas de tal forma que terceiros sabem muito sobre eles e podem, até mesmo, ver através deles.1

Assim, o tratamento de dados pessoais permite a formação de perfis, permitindo que terceiros os explorem e criem estereótipos.2 Mendes elucida que da prática de perfilamento podem decorrer riscos diante dos elementos informativos criados.3 A partir disso, destaca-se uma preocupação específica que é analisada por Doneda, quando menciona a perda de autonomia, individualidade e liberdade do indivíduo, a partir do acesso aos dados pessoais.4

Portanto, há assimetria informacional, técnica e econômica dos indivíduos em face das sociedades empresárias, notadamente as Big Techs,5 o que é intensificado pelo modo obscuro de funcionamento de alguns algoritmos, principalmente daqueles baseados em inteligência artificial.

A inteligência artificial coloca em pauta novos desafios ao sistema jurídico, apesar de ainda não ter se atingido plenamente a singularidade tecnológica definida por Vinge,6 ou superar o ‘jogo da imitação’7 proposto por Turing.8 Conforme Borges e Faleiros Jr. explicam, “o que se prevê é que os algoritmos se tornarão tão complexos que superarão os limites da predição estatística e do singelo suporte à tomada de decisões para serem máquinas capazes de ‘pensar’ e, portanto, artificialmente inteligentes, com propensão à tomada de decisões morais”.9 De acordo Frazão e Goettenauer,10 há dificuldade em entender o funcionamento destes algoritmos complexos, o que decorre das suas próprias características como imprevisibilidade e incontrolabilidade. Portanto, algoritmos podem ser ferramentas perigosas, como O’Neil explica em “Algoritmos de Destruição em Massa”, quando utilizados sem uma análise criteriosa.11

Porém, é por meio da dinâmica de tais algoritmos em plataformas digitais que se torna possível a publicidade comportamental diante da criação de perfis dos indivíduos de acordo com suas preferências.12 Tim Wu já predizia que empresas de tecnologia adquiriram poderes extraordinários pois, ao traçar seus perfis, podem impactar na forma em que o serviço será prestado e quais produtos serão oferecidos.13

É nesse contexto que destacamos as publicidades comportamentais, com aspectos tanto positivos como negativos.14 Os primeiros estão relacionados com o direcionamento dos anúncios aos consumidores de acordo com seus interesses, economizando tempo de buscas, por exemplo. Por outro lado, a publicidade comportamental pode influenciar na tomada de decisão dos indivíduos, aumentando o consumo de forma não racional diante da minoração da liberdade de escolha.15

É nesse contexto que Sunstein destaca a ‘bolha da informação’16 – encaixamento17 – por meio da qual o usuário passa a ter contato com apenas um rol de opções que, teoricamente, seriam mais aptas às suas preferências, limitando o acesso a outras. Referido fenômeno consiste na existência de possibilidades limitadas em torno de presunções feitas por ferramentas de análise comportamental guiando, assim, as escolhas futuras dos indivíduos.

Neste ponto, a publicidade comportamental uniformizaria padrões de comportamento diminuindo a diversidade e o rol de escolhas dos consumidores. Frazão também chama a atenção à manipulação informacional e digital com poder para erodir a democracia.18 Assim, a publicidade comportamental pode gerar uma possível discriminação entre consumidores e a relativização da escolha livre.19

Posto isso, é essencial compreender que os indivíduos não fazem escolhas racionais a todo momento: suas decisões são influenciáveis, principalmente em cenários de incerteza. Assim, a existência de um ser humano racional e utilitarista, concebido como homo economicus, passa a ser questionada. Conforme leciona Eisenberg,20 a racionalidade humana é limitada porque a informação também é, assim como a capacidade e habilidade de processamento de tais informações.

Nesse contexto, decisões irrefletidas podem gerar erros sistemáticos e terceiros podem se aproveitar de tal cenário para aferir lucro.21 Teichman e Zamir22 apontam que influenciar pessoas na tomada de decisões é crucial para a sobrevivências das sociedades empresárias. Portanto, em um cenário em que são feitas escolhas irracionais baseadas em informações imperfeitas, os anúncios servem para fornecer informação para ajudar consumidores a procurar produtos ou serviços e persuadi-los a comprar.23

Assim, ao falar sobre o tema, é essencial entender a importância do estudo comportamental econômico e reconhecer que as interações realizadas por terceiros em ambiente virtual têm a capacidade de alterar as preferências do consumidor e persuadi-lo, aproveitando-se de falhas humanas para que este superestime o valor de determinado produto ou seja influenciado a adquiri-lo.24

Portanto, por meio de limitados poderes de escolha e racionalidade,25 o modelo econômico comportamental justifica que consumidores são influenciados por técnicas e gatilhos publicitários. Com isso, é possível que sua percepção seja distorcida no momento da tomada de decisões. Essas técnicas e gatilhos majoritariamente utilizam ferramentas tecnológicas, como algoritmos complexos e tomada de decisões automatizada sobre dados pessoais dos indivíduos.

Resta-nos a questão: até que ponto somos livres para escolher o que realmente queremos comprar e os nossos próprios interesses? Assim, como arrematam Tomasevicius Filho e Angelo Ferraro, “chegou o momento de o problema da Inteligência Artificial ser seriamente abordado no nível político-regulatório”,26 vez que se observa a busca incessante das empresas por algoritmos mais eficazes capazes de processar grande quantidade de dados para propiciar vantagens concorrenciais e influenciar os indivíduos.27

____________________

Pietra Daneluzzi Quinelato

 

Referências

________________________________________

1. LACE, Susanne (Ed.). The glass consumer: life in a surveillance society. Bristol: The Policy Press, 2005, p. 1.

2. BIONI, Bruno. Proteção de dados pessoais: a função e os limites do consentimento. Rio de Janeiro: Forense, 2019, p. 89.

3. MENDES, Laura S. Privacidade, proteção de dados e defesa do consumidor: linhas gerais de um novo direito fundamental. São Paulo: Saraiva, 2014, p. 111

4. DONEDA, Danilo. Da privacidade à proteção de dados pessoais. Editora Revista dos Tribunais: São Paulo, 2006, p. 2.

5. RIKAP, Cecilia. Capitalism, power and innovation: Intellectual monopoly capitalism uncovered. Londres: Routledge, 2021.

6. VINGE, Vernor. The coming technological singularity: How to survive in the post-human era. In: Interdisciplinary Science and Engineering in the Era of Cyberspace. NASA John H. Glenn Research Center at Lewis Field, Cleveland, 1993.

7. Segundo Alan Turing, por meio de um modelo mais complexo batizado de ‘jogo da imitação’ seria possível aferir o potencial de uma máquina que pretenda, de forma convincente, se passar por humana (FALEIROS JR., José; BORGES, Gustavo. Ética algorítmica e direitos humanos: reflexões sobre os limites do profiling no capitalismo de vigilância. In: CANTARINI, Paola; GUERRA FILHO, Willis Santiago; KNOERR, Viviane Coêlho de Séllos. (Coord.). Direito e inteligência artificial: fundamentos. Volume 2: Inteligência artificial e tutela de direitos. Rio de Janeiro: Lumen Juris, 2021, p. 299).

8. TURING, Alan M. On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, Londres, v. 42, n. 1, p. 230-265, nov. 1936.

9. FALEIROS JR., José; BORGES, Gustavo. Ética algorítmica e direitos humanos: reflexões sobre os limites do profiling no capitalismo de vigilância. In: CANTARINI, Paola; GUERRA FILHO, Willis Santiago; KNOERR, Viviane Coêlho de Séllos. (Coord.). Direito e inteligência artificial: fundamentos. Volume 2: Inteligência artificial e tutela de direitos. Rio de Janeiro: Lumen Juris, 2021, p. 299.

10. FRAZÃO, Ana; GOETTENAUER, Carlos. Black box e o Direito face à opacidade algorítmica. p. 27-42. In: BARRETO, Mafalda; BRAGA NETTO, Felipe; FALEIROS JR., José; SILVA, Michael César (coords.). Direito digital e inteligência artificial – diálogos entre Brasil e Europa. Indaiatuba: Ed. Foco, 2021.

11. O’NEIL, Cathy. Algoritmos de destruição em massa – como o Big Data aumenta a desigualdade e ameaça à democracia. Tradução Rafael Abraham. 1 ed. São Paulo: Rua do Sabão, 2016.

12. BIONI, Bruno. Proteção de dados pessoais: a função e os limites do consentimento. Rio de Janeiro: Forense, 2019, p. 19.

13. WU, Tim. The master switch: the rise and fall of information empires. Nova Iorque: Vintage, 2010, p. 320.

14. BIONI, Bruno. Proteção de dados pessoais: a função e os limites do consentimento. Rio de Janeiro: Forense, 2019, p. 17.

15. SUTHERLAND, Max. Advertising and the mind of the consumer: What works, what doesn’t, and why. 3a ed. Australia: Allen & Unwin, 2008, p. 145.

16. SUNSTEIN, Cass R. Infotopia: How many minds produce knowledge. Oxford: Oxford University Press, 2006, p. 9.

17. ABRAMS, Martin. Boxing and concepts of harm. Privacy and Data Security Law Journal, [s. l.], set. 2009, p. 673.

18. FRAZÃO, Ana. Proteção de dados e democracia: a ameaça de manipulação informacional e digital. p. 739-762. In: FRANCOSKI, Denise; TASSO, Fernando. A Lei Geral de Proteção de Dados Pessoais – aspectos práticos e teóricos relevantes no setor público e privado. São Paulo: Revista dos Tribunais, 2021.

19. BRASIL. Escola Nacional De Defesa Do Consumidor. A proteção de dados pessoais nas relações de consumo: para além da informação creditícia. Escola Nacional De Defesa Do Consumidor, elaboração Danilo Doneda. Caderno de investigações científicas. Brasília: SDE/SPDC, v. 2, 2010, p. 68.

20. EISENBERG, Melvin A. Behavioral Economics and the Contract Law. In: The Oxford Handbook of Behavioral Economics and the Law, Londres: Oxford University Press, 2014.

21. ALVES, Giovani. Economia Comportamental. In: RIBEIRO, Marcia; KLEIN, Vinicius (coord.). O que é análise econômica do direito: uma introdução. 2a Ed. Belo Horizonte: Fórum, 2016, p. 75.

22. TEICHMAN, Doron; ZAMIR, Eyal. Behaviour Law and Economics. New York: Oxford University Press, 2018, p. 284.

23. HAWKINS, Jim. Exploiting advertising. Law & Contemporany Problems, [s. l.], v. 80, 2017, p. 44.

24. HAWKINS, Jim. Exploiting advertising. Law & Contemporany Problems, [s. l.], v. 80, 2017, p. 44.

25. MULLAINATHAN, Sendhil; THALER, Richard. Behavioral Economics. Working paper 7948. National Bureau of Economics Research, [s. l.], 2000.

26. TOMASEVICIUS FILHO, Eduardo; FERRARO, Angelo. Le nuove sfide dell’umanità e del diritto nell’era dell’Intelligenza Artificiale. Revista Direitos Culturais, Santo Ângelo, v. 15, n. 37, 2020, p. 412.

27. PEIRANO, Marta. El enemigo conoce el sistema: manipulación de ideas, personas e influencias después de la Economía de la atención. Barcelona: Debate, 2019.

Compartilhe nas Redes Sociais
Anúncio