Saltar al contenido

4. La investigación comercial

07/04/2020
4. La investigación comercial

1.- La necesidad de información de una empresa

Una empresa necesita investigar por las siguientes razones:

  • Debe evaluar y medir la efectividad de las diferentes estrategias de marketing que lleva a cabo, por ejemplo, ¿es adecuado el coste?, ¿nos aporta beneficios?
  • Es una forma de adelantarnos a posibles complicaciones o riesgos y prever cambios o modificaciones
  • Si nos preocupamos por la calidad de nuestros productos o servicios será mucho más fácil mejorar la experiencia de cliente y tendremos más oportunidad de negocio.

2.- El concepto de investigación comercial

Las empresas intentan vender sus productos en mercados donde cada vez existen más ofertas (y más variadas). Por tanto, intentan competir con una competencia cada vez mayor y más diversificada. Por ello es tan importante la investigación comercial: las empresas deben investigar y analizar datos útiles que ayuden a la comercialización de los bienes. De esta forma, toda la información recabada nos ayudará a tomar decisiones entorno a nuestras estrategias de marca. El principal objetivo de la investigación es tomar decisiones de forma sencilla y con menor riesgo, por ello, la investigación comercial debe ser:

  • Oportuna y pertinente (problemas o necesidades reales).
  • Eficaz en cuanto al coste y al beneficio.
  • Objetiva, científica, informática y orientada a tomar decisiones.

3.- El sistema de información de marketing

El sistema de información de marketing (SIM) se define como un conjunto de relaciones donde intervienen las personas y los elementos y procesos digitales.

Este sistema genera información que proviene de diferentes fuentes, destinadas a facilitar la toma de decisiones dentro de las diferentes áreas de marketing. A través de diferentes técnicas se busca la información necesaria para resolver problemas mediante técnicas de recogida de datos, como por ejemplo, con Big Data.

3.1.- Big Data

Se refiere al almacenamiento y gestión de grandes cantidades de datos que hay en Internet, permitiéndonos identificar patrones de compra de posibles clientes.

Analítica web y big data van de la mano a la hora de realizar el análisis del consumidor, juntas con un arma de inteligencia empresarial que nos permite estudiar comportamientos de manera individual.

De esta forma, tendremos la capacidad de dialogar cliente a cliente y personalizar el mensaje.

De manera que, por ejemplo, en una tienda online o e-commerce no trataremos igual a un usuario que es cliente habitual que a uno que aún no se ha decidido a hacer la primera compra.

Ya no se trata de solo analizar la web, ahora también debemos analizar resultados en redes sociales, vídeos, blogs y todas las plataformas digitales en las que los usuarios puedan interactuar.

Esta información sobre los usuarios, recogida durante el proceso de compra o durante la visita a nuestra página web, debe ser utilizada tanto para optimizar impactos y mejorar la eficiencia de la empresa, como para ofrecer contenidos, formatos, experiencias y soluciones relevantes e individualizadas a los potenciales clientes.

Debemos entender la analítica web como la herramienta que nos permite comprobar si nuestro proyecto evoluciona de forma favorable, si el tráfico crece de forma estable, cuántos productos vendemos, etc. Su principal función debe ser la de proponer mejoras e innovar.

En este vídeo se explica qué es el Big Data y cómo funciona:

Las TIC (Tecnologías de Información y Comunicación) son una herramienta de apoyo fundamental para la innovación, tanto a nivel de procesos, como de creación de productos y servicios.

Indudablemente las herramientas relacionadas con la recopilación y análisis de datos son las que en la actualidad más valor aportan a la empresa y, en este caso, hablaremos de Big Data.

El Big Data se genera constantemente en todo lo que nos rodea. Cada proceso digital y cada interpretación en las redes sociales produce datos. Los sistemas, sensores y dispositivos móviles los transmiten. El Big Data llega desde múltiples fuentes a una velocidad, volumen y variedad alarmantes. Para extraer valor significativo del Big Data necesitamos los medios y habilidades adecuados.

La cantidad de datos en nuestro mundo está en proceso de explosión. Las empresas acumulan billones de bytes de información acerca de sus clientes, proveedores y operaciones.

3.2.- Los datos de la empresa

Los datos cambian nuestra forma de trabajar. Tradicionalmente, los datos eran algo costoso de obtener, tanto en términos de tiempo, como en términos económicos. A raíz de la normalización del uso de la informática en las empresas y, por supuesto, de Internet, el software ha empezado a envolver por completo los procesos de negocio desde finales del siglo pasado.

Esto ha creado una cultura en la cual las empresas y los líderes de las tecnologías de la información deben aunar fuerzas para obtener valor de todos los datos: aumentar la fidelidad del cliente, optimizar operaciones, prevenir fraudes y capitalizar nuevas fuentes de beneficio son solo algunos de los beneficios que nos trae el Big Data.

La pregunta que debemos hacernos ahora es: ¿Es esta proliferación de datos simplemente la prueba de que el mundo es cada vez más intrusivo o, por el contrario, puede el Big Data jugar un papel útil a nivel económico?

Millones de dispositivos y sensores están generando y transmitiendo datos continuamente. De hecho, a medida que las empresas y organizaciones interactúan con individuos crean una gran cantidad de datos como efecto colateral de sus actividades.

3.3.- ¿Qué entienden los ejecutivos por Big Data?

  • 7 %: Datos de medios sociales.
  • 8 %: Una nueva palabra de moda.
  • 10 %: Grandes volúmenes de datos.
  • 13 %: Flujo de datos de nuevas tecnologías. Medios no tradicionales.
  • 15 %: Información en tiempo real.
  • 16 %: Nuevos tipos de datos y análisis.
  • 18 %: Un mayor abanico de información.

3.4.- ¿Qué es el Big Data?

El Big Data hace referencia a datasets cuyo tamaño es mayor que el que las herramientas tradicionales de software son capaces de capturar, almacenar, gestionar y analizar. No definimos el Big Data como conjuntos de datos mayores de x terabytes, dado que a medida que la tecnología avance también crecerá el tamaño necesario para que un conjunto sea considerado como Big Data. Además, esta variable puede variar en función del sector, ya que según la naturaleza de éste se usarán unas herramientas u otras.

Los datos digitales ya están en todas partes, en todos los sectores, en todas las economías, en cada organización y en cada usuario de la tecnología digital.

3.4.1.- Datos del mundo real

  • Los sistemas de RFID generan hasta 1000 veces más datos que los sistemas convencionales de códigos de barras.
  • Más de 5000 millones de personas telefonean, mandan mensajes de texto, tuitean y navegan por Internet con teléfonos móviles.
  • Cada día se envían 340 millones de tuits. Son unos 4000 por segundo.
  • Facebook cuenta con más de 901 millones de usuarios activos generando datos de interés social.
  • Walmart gestiona más de 1 millón de transacciones con clientes por hora.
  • Al día se generan 2,5 trillones de bytes de datos. El 90 % de los datos que hay hoy en día en el mundo se han creado tan solo en los últimos años.
  • En el mundo se registran cada segundo 10000 transacciones de pagos con tarjetas.

Muchas empresas pioneras ya están utilizando grandes volúmenes de datos para crear valor y otras necesitan averiguar cómo pueden hacer lo mismo para poder competir. Los gobiernos también tienen una gran oportunidad para aumentar su eficiencia y la relación calidad de los servicios que ofrecen a los ciudadanos en un momento en que las arcas públicas se ven limitadas, fenómeno que irá en aumento debido al envejecimiento de la población en muchos países de todo el mundo.

El sector público puede aumentar significativamente su productividad a través del uso eficaz del Big Data.

Es tal el crecimiento e importancia del Big Data que solo en Estados Unidos existe una escasez de entre 140000 y 190000 profesionales con capacidad de análisis de datos, así como 1,5 millones de gestores y analistas para analizar grandes volúmenes de datos y tomar decisiones en base a sus hallazgos.

3.4.2.- Ventajas del Big Data

  • Líderes proactivos: El uso del Big Data se está convirtiendo en una de las formas clave en las cuales las empresas líderes están superando a sus competidores. Esta acción lleva tiempo, pero el impacto de tener una capacidad superior traerá grandes ventajas competitivas en el largo plazo.
  • Nuevas oportunidades de crecimiento: El Big Data además creará nuevas oportunidades de crecimiento y, de hecho, creará nuevas categorías de empresas como, por ejemplo, aquellas que se dedican a recopilar y analizar información relativa a diferentes sectores.
  • Empresas más eficientes: Estas oportunidades tienen el potencial de mejorar la eficiencia y efectividad de las empresas, permitiéndoles hacer más con menos y aumentar la calidad de sus productos y servicios.
  • Oferta adaptada: Los datos pueden usarse para mejorar los productos y servicios a medida que se usan. Un ejemplo es el de los buscadores de nuestros smartphones, que a medida que hacemos búsquedas van ofreciendo resultados cada vez más afines a nuestros gustos mediante el uso de algoritmos, además de utilizar la geolocalización para ofrecer resultados próximos a nuestra ubicación.

3.4.3.- El Big Data como fuente de valor

  • Los datos son parte de todas y cada una de las funciones de negocio y son ahora un importante factor de producción.
    En 2009, los sectores de la economía de Estados Unidos tenían un promedio de al menos 200 terabytes de datos almacenados en empresas con más de 1000 empleados. Muchos sectores tenían más de 1 petabyte de datos medios almacenados por empresa. En total, las organizaciones europeas tienen alrededor del 70 % de la capacidad de almacenamiento del global de Estados Unidos. La empresa promedio en la mayoría de los sectores en Europa tiene capacidad suficiente para almacenar y manipular grandes volúmenes de datos.
  • El Big Data crea valor de muchas maneras.
    Existen 5 maneras aplicables en términos generales que ofrecen un potencial de transformación para crear y afectar a la forma en la que las empresas deben ser diseñadas, organizadas y gestionadas: cambios en el marketing y gestión de la marca, cambios en la contabilidad de la empresa, cambios en la capacidad de negociación de los clientes, redes sociales y aspectos legales.

    1. Creación de transparencia: El mero hecho de poner a disposición de los diferentes stakeholders de una empresa la información relevante en el momento adecuado puede suponer una significativa adición de valor. En el caso del sector público, hacer que los datos pertinentes sean más fácilmente accesibles entre departamentos supondrá una creación de valor, ya que los ciudadanos verán minimizados los tiempos para sus trámites administrativos (sistemas de ventanilla única, por ejemplo). También en la administración pública la accesibilidad de los datos a los ciudadanos aumentará la confianza en los gobiernos.
      En el sector productivo, la integración de datos entre I+D, ingeniería y producción reducirá los tiempos de diseño, elaboración, prueba y salida al mercado, dando una importante ventaja competitiva a aquellos que hagan bien su trabajo.
      Portal de transparencia del Gobierno de España. Ejemplo de iniciativa gubernamental de aumentar la accesibilidad de los datos generados a los ciudadanos.
    2. Habilita la experimentación para descubrir necesidades, evidenciar la variabilidad y mejorar el rendimiento: A medida que se crean y almacenan más datos transaccionales en forma digital, las organizaciones pueden recopilar datos de rendimiento más precisos y detallados (en tiempo real o casi real), sobre todo de los inventarios de productos para perfeccionar los sistemas de almacenamiento. Las TIC permiten a las empresas instrumentar los procesos y luego llevar a cabo experimentos controlados. Utilizar datos para analizar la variabilidad en el rendimiento (los cuales se producen o bien de manera natural o bien a partir de experimentos controlados) y comprender sus causas fundamentales puede permitir a los líderes gestionar el rendimiento a mejores niveles.
    3. Segmentar a las poblaciones para personalizar las acciones: El Big Data permite a las empresas crear segmentaciones mucho más específicas y, por lo tanto, diseñar productos y servicios a medida, de manera que se satisfagan sus necesidades. Este enfoque puede dar una vuelta de tuerca a las prácticas ya realizadas en disciplinas como el marketing.
      En la plataforma, como material complementario puedes visualizar un vídeo sobre el tratamiento de datos según Óscar Méndez, de Stratio.
    4. Reemplazar o complementar la toma de decisiones humana con algoritmos automatizados: Los análisis sofisticados pueden mejorar sustancialmente la toma de decisiones, minimizar los riesgos y descubrir información valiosa que, de otro modo, permanecería oculta. Esto puede tener, por ejemplo, implicaciones en el sector público mediante el diseño de un algoritmo que indique qué persona o empresas deben pasar por una inspección fiscal más detallada o, para el sector de la distribución, gestionando automáticamente los inventarios.
      En algunos casos, las decisiones no son necesariamente automatizadas, pero sí mejoradas mediante el análisis de grandes conjuntos de datos completos, utilizando técnicas de Big Data, gestionando mejor a los clientes, empleados o incluso incorporando sensores en los productos.
    5. Innovar en modelos de negocio, productos y servicios: El Big Data permite a las empresas crear productos y servicios, mejorar los existentes e inventar modelos de negocio completamente nuevos. Los fabricantes están usando los datos obtenidos de la utilización de productos reales para mejorar el desarrollo de la siguiente generación de productos y crear ofertas de servicios posventa innovadores. La aparición de los datos de ubicación en tiempo real ha creado todo un nuevo conjunto de servicios basados en la ubicación de la navegación para la fijación de precios de bienes y servicios en función de dónde se hallen los consumidores.
  • El uso del Big Data se convertirá en un factor clave para que las empresas puedan competir y crecer.
  • El uso de Big Data desenterrará nuevas olas de crecimiento de productividad y de excedente del consumidor.
    • Excedente del consumidor: Los consumidores y ciudadanos obtienen una gran cantidad de excedente de consumidor debido a la cantidad de datos accesibles, lo que les permite obtener mejor calidad de productos y servicios, comparar opiniones de usuarios y, sobre todo, obtener mejores ofertas debido a la aparición de servicios de comparación de precios.
  • Aunque el Big Data trae beneficios a prácticamente todos los sectores, a algunos sectores les esperan ganancias mayores.
    Algunos sectores tienen que superar más barreras que otros para sacar partido del Big Data.
  • Existirá un déficit del talento necesario para que las empresas puedan sacar partido al Big Data.
    Un importante factor limitante para convertir en valor el Big Data será la falta de talento, especialmente de personal con experiencia en estadística y en aprendizaje automático.
    Otra escasez se producirá en la disponibilidad de directivos y analistas que sepan cómo hacer funcionar empresas usando conclusiones obtenidas del Big Data.
    Además, este tipo de talento es difícil de producir, ya que lleva años de formación incluso para personas que ya tengan una gran base matemática.
  • Exigen numerosos asuntos que tendrán que ser abordados para explotar el potencial completo del Big Data.
    • Políticas de datos: Cada vez una mayor cantidad de información está siendo digitalizada y atraviesa fronteras. Existen una serie de temas legislativos que deben abordarse, incluyendo: privacidad, seguridad, propiedad intelectual y responsabilidad. Claramente, la importancia y sensibilidad acerca de la privacidad crece, sobre todo a ojos de los consumidores, a medida que el Big Data va desarrollándose, a pesar de que los datos más sensibles como financieros y sanitarios son los que también tienen mayor potencial para ayudar a los consumidores.
    • Tecnología y técnicas: Para capturar el valor del Big Data las empresas deberán implementar nuevas tecnologías y técnicas. La cantidad de tecnología y las prioridades con respecto a ésta dependerán del estado de desarrollo de análisis de datos de cada empresa. Los nuevos problemas y la creciente capacidad de computación provocarán el desarrollo de nuevas técnicas de análisis. Además, existe una necesidad de innovación en este ámbito para ayudar a consumidores y empresas a integrar, analizar, visualizar y consumir el creciente torrente de Big Data.
    • Cambio organizacional y talento: A menudo los directivos en las empresas carecen de capacidad para entender el valor que puede crear el big data, así como las maneras de sacar este valor a flote. En sectores competitivos esto puede ser un talón de Aquiles si la competencia ya ha dado con la clave para explotar el big data.
    • Acceso a los datos: Para tener acceso a las oportunidades, las empresas necesitan cada vez más integrar información de fuentes múltiples de datos. En algunos casos, las empresas podrán comprar los datos. En otros, obtener información de terceros no es tan fácil, dado que puede que los dueños de esta información hayan decidido no compartirla o la empresa no tiene recursos económicos suficientes para comprarla.
    • Estructura del sector: Los sectores con una relativa falta de competitividad y sin necesidad de transparencia suelen ser lentos en cuanto a tratar de obtener valor del Big Data. Por ejemplo, en el sector público no existe un gran incentivo para obtener el valor potencial del Big Data.

3.4.4.- Técnicas de Big Data

  • A/B testing: Es una técnica en la que un grupo de control se compara con una variedad de grupos para determinar qué cambios mejoran un determinado indicador.
  • Reglas de asociación: Usando para el data mining, es un grupo de técnicas para descubrir relaciones de interés entre variables en bases de datos de gran tamaño. En el caso de Facebook sería qué personas tenemos más posibilidades de empezar a seguir, pero en caso de Amazon es qué producto posiblemente compraremos si hemos realizado un seguido de acciones (por ejemplo, qué dos productos se suelen comprar a la vez). Sabiendo esto, se lo pueden poner más fácil a los clientes.
  • Aprendizaje supervisado: Conjunto de técnicas de aprendizaje automáticas que infieren en una función o relación de un conjunto de datos.
  • Crowdsourcing: Técnica de recolección de datos enviados por un grupo grande de personas o por una comunidad (crowd, término inglés que significa multitud). El proceso comienza tras una llamada a la comunidad, normalmente a través de la web corporativa o las redes sociales.
  • Análisis de conglomerado: Método estadístico de clasificación de objetos de manera que se separan en grupos más pequeños de objetos similares entre sí y cuyas similitudes no se conocen con anterioridad.
  • Fusión de datos e integración de datos: A veces hay datos que por sí solos no aportan mucho pero combinados con otros ya es otro tema. El GPS de tu móvil solo dice dónde estás, pero combinado con Twitter puedes encontrar gente nueva, o combinado con un mapa de la zona te ayuda a ubicarte.
  • Data mining: Conjunto de técnicas que tienen como objetivo extraer tendencias de grandes conjuntos de datos, combinando métodos de la estadística y el aprendizaje automático con gestión de bases de datos.
  • Redes neuronales: Son redes de ordenadores inspirada en el funcionamiento de las neuronas humanas que tratan de encontrar patrones en los datos.
  • Clasificación: Se trata de que la computadora determine a qué grupo de data pertenece un nuevo set de data basándose en clasificaciones pasadas y los ejemplos «introducidos a mano». Un ejemplo sería determinar el idioma de un texto basado en ejemplos dados por humanos que sí sepan qué lengua es. Evidentemente, cuanto mayor sea el dato a comparar, menos probabilidades de error tendrá.
  • Regresión: Es una de las técnicas para predecir modelos, se trata de que dadas algunas constantes, se calcula qué pasa cuando se modifican las variables.
  • Aprendizaje predictivo: Con el uso de modelos predictivos (basados en estadística y aprendizaje automático) podemos determinar o intentar predecir el futuro de determinados modelos.
  • Algoritmos genéticos: También conocidos como algoritmos de la evolución sirven para mejorar problemas no lineales. Como dice la teoría de la evolución, «sobrevive el mejor adaptado», pues este caso vendría a ser el cambio que desarrolla un mejor desempeño.
  • Análisis de redes: Es un conjunto de técnicas que permiten encontrar los nodos de más influencia, la dirección de los datos. Esto permite conocer a los influencers (para estrategias de marketing) o para identificar los cuellos de botella).
  • Optimización: Los algoritmos genéticos son una de las técnicas, sirven para mejorar el proceso en función del coste, velocidad, etc.
  • Predecir modelos: Se trata de crear un modelo matemático con la mayor probabilidad de predecir la salida. Calculan la probabilidad de que ocurra un determinado evento.
  • Simulación: Dadas las probabilidades de todas las variables, calcula qué pasa en cada escenario para unos datos concretos. Se hace ver así cómo puede reaccionar nuestro material a determinadas condiciones.

3.4.5.- Tecnologías de Big Data

  • Apache Hadoop: Es un marco de software de código abierto para aplicaciones intensivas de datos distribuidos, originalmente creado por Doug cutting para apoyar su trabajo en Nutch, un motor web de código abierto. Para cumplir con los requisitos de procesamiento multimáquina de Nutch, Cutting implementó un centro de MapReduce y un sistema de archivos distribuido que en conjunto se convirtieron en Hadoop. Él le puso el nombre del elefante de juguete de su hijo.
    A través de MapReduce, Hadoop distribuye los datos en grandes piezas sobre una serie de nodos que se ejecutan en hardware de consumo. En la actualización, Hadoop se encuentra entre las tecnologías más populares para el almacenamiento de datos estructurados, semi-estructurados y no estructurados que forman parte de los grandes volúmenes de datos. Hadoop está disponible bajo Apache License 2.0.
  • R: Es un lenguaje de programación de código abierto y entorno de software diseñado para el cálculo estadístico y visualización.
    R fue diseñado por Ross Ihaka y Robert Gentleman en la universidad de Auckland, Nueva Zelanda, a comienzos de 1993 y se está convirtiendo rápidamente en la herramienta a seguir para el análisis estadístico de grandes series de datos.
    Es comercializado por una empresa llamada Revolution Analytics, que está llevando a cabo un modelo de servicios y soporte inspirado en el respaldo de Red Hat para Linux. R está disponible bajo la General Public License de GNU.
  • Scribe: Es un servidor desarrollado por Facebook y lanzado en el 2008. Está destinado para agregar registros de datos transmitidos en tiempo real desde un gran número de servidores.
    Facebook lo diseñó para cumplir con sus propios desafíos de escala y ahora utiliza Scribe para manejar decenas de miles de millones de mensajes al día. Está disponible bajo Apache License 2.0.
  • Castading: Es un software de capa de abstracción para Hadoop que permite a los usuarios crear y ejecutar flujos de trabajo de procesamiento de datos en clústeres Hadoop, usando cualquier lenguaje basado en JVM. Su objetivo es ocultar la complejidad subyacente de los trabajos de MapReduce.
    Cascading ha sido diseñado por Chris Wensel como alternativa API a MapReduce. A menudo, se utiliza para la orientación de los anuncios, registro de análisis de archivos, bioinformática, máquina de aprendizaje, análisis predictivo, minería de contenido web y aplicaciones ETL.
    El soporte comercial para Cascading es ofrecido por Concurrent, una empresa fundada por Wensel después de que él desarrollara Cascading. Entre las empresas que utilizan Cascading están Twitter y Etsy. Está disponible bajo la General Public License de GNU.
  • ElasticSearch: Desarrollado por Shay Banon y basado en Apache Lucene, ElasticSearch es un servidor de búsqueda distribuido.
    Es una solución escalable que soporta la búsqueda casi en tiempo real y multiusuario, sin una configuración especial. Ha sido adoptado por un número de compañías, incluyendo StumbleUpon y Mozilla. ElasticSearch está disponible bajo Apache License 2.0.
  • Apache HBase: Escrito en java y el modelado con BigTable de Google, Apache HBase es una base de datos no relacional distribuida en columnas, diseñada para ejecutarse en la parte superior de Hadoop Distributed Filesystem (HDFS). Proporciona tolerancia a fallos de almacenamiento y un rápido acceso a grandes cantidades de datos dispersos.
    HBase es uno de los muchos almacenes de datos de NoSQL que se han vuelto disponibles en los últimos años.
    En el 2010, Facebook adoptó HBase para servir a su plataforma de mensajería. Está disponible bajo Apache License 2.0.
  • MongoDB: Creado por los fundadores de DoubleClick, es otro popular almacén de datos NoSQL.
    Almacena los datos estructurados en documentos tipo JSON, con esquemas dinámicos llamados BSON (por Binary JSON). MongoDB ha sido adoptado por un número de grandes empresas, incluyendo MTV Networks, Craigslist y Disney Interactive, Media Group, The New York Times y Etsy.
    Está disponible bajo la GNU Affero General Public License, con idiomas disponibles bajo Apache License. La empresa 10gen ofrece licencias comerciales de MongoDB.
  • Apache CouchDB: Es otra base de datos NoSQL. Utiliza JSON para almacenar datos, JavaScript como lenguaje de consulta y MapReduce y HTTP como API. CouchDB fue creado en el 2005 por el ex desarrollador de IBM Lotus Notes, Damien Katz, como un sistema de almacenamiento para una base de datos de objetos grandes.
    La BBC utiliza CouchDB para sus plataformas de contenidos dinámicos, mientras que el departamento de productos de Credit Suisse lo utiliza para almacenar los detalles de configuración de su mercado de marco de datos Python. CouchDB está disponible bajo Apache License 2.0.

3.5.- Razones para implementar proyectos de Big Data

  • Llevar a cabo mejores análisis: Para conseguir este objetivo es necesario una cantidad bastante superior de datos de análisis. Generalmente, esta iniciativa parte de una unidad de negocio en concreto. Por ejemplo, el departamento de marketing puede requerir un mayor conocimiento de los clientes para adecuar más la oferta.
  • Ayuda a dar valor añadido a los productos: El Big Data puede ayudar a «cubrir con una capa de servicios» los productos de la empresa, de manera que se ayuda a los clientes a utilizar los productos con más eficiencia y eficacia.
  • Realizar las actividades mejor, más rápido y con menos gastos: Al ser capaces de documentar todas las decisiones que se tomen en relación con un proceso o una unidad de negocio en particular.
  • El Big Data es fundamental para todas las unidades de negocio: Por lo que intentan establecer unas bases para una visión centrada en todos sus datos.
  • Debemos aprender a usar el Big Data antes de que sea demasiado tarde.

3.6.- Motivos por los que fracasan los proyectos de Big Data

El 55 % de los proyectos de Big Data no se terminan y muchos otros no cumplen sus objetivos, según lo refleja este estudio de InformationWeek.

A continuación, una breve exposición de los motivos por los que fracasan los proyectos de Big Data.

  • Motivos difusos: El motivo de fracaso más frecuente es establecer un ámbito de aplicación impreciso del proyecto. En muchas ocasiones las empresas desarrollan proyectos demasiado ambiciosos y, en ocasiones, además, son demasiado ambiguos. Estos proyectos suelen carecer de objetivos claros y luego terminan fracasando cuando llega el momento de tomar decisiones complicadas acerca de lo que es importante y lo que no lo es.
    El que quiera implementar un proyecto de Big Data que no lo haga porque «hay que hacerlo» o por dar la imagen de empresa innovadora. La complejidad de los proyectos de Big Data requiere un compromiso firme con la consecución de los proyectos de Big Data requiere un compromiso firme con la consecución de un resultado concreto. Obviamente, sin unos objetivos claros no es posible llevar a un buen puerto un proyecto, ni de Big Data, ni de ninguna otra naturaleza.
  • Expectativas equivocadas: Debido a la fama que está adquiriendo el Big Data, hay quien llega a algunas suposiciones muy arriesgadas en cuanto a lo que puede ofrecer el proyecto. A pesar de que sea apetecible hacer promesas valientes con cortos plazos de tiempo, es importante mantener una visión realista de lo que se puede esperar del proyecto, el tiempo que va a necesitar y la cantidad de esfuerzos que requiere. Si las expectativas del proyecto no son realistas, se acabará buscando una aguja en un pajar y, finalmente, nos encontraremos intentando cumplir plazos y presupuestos nada razonables.
  • Aumento de costes y retrasos del proyecto: Teniendo en cuenta lo novedosa que es esta disciplina para la mayoría de las empresas, lo común es que la mayoría de los proyectos de Big Data terminen costando y/o tardando más de lo previsto. Es el resultado de una mezcla de expectativas irreales e incomprensión del procedimiento para crear una arquitectura escalable. La consecuencia es que muchos proyectos de Big Data terminan como un experimento científico que languidece en el laboratorio y nunca llega a ver la luz.
  • Incapacidad de escalar: Con demasiada frecuencia, las empresas se fijan más en la convivencia a corto plazo que en la sostenibilidad a largo plazo. Para que los datos cuenten con la gestión y protección adecuadas, se deben supervisar las implicaciones a largo plazo del proyecto.

3.7.- Selección del proyecto adecuado

Una vez somos conscientes de que debe tener lugar un cambio y se ha aceptado la necesidad de contar con una estructura completa de gobernanza de datos para mejorar los métodos de trabajo, debemos en primer lugar reconocer el aspecto del proyecto adecuado.

Las características principales son las siguientes:

  • Valor demostrable: El proyecto adecuado es aquel en que el valor se reparte a partes iguales entre TI y la unidad de negocio a la que pretende ayudar. Eso implica proporcionar un valor claro a un departamento, una unidad de negocio o un grupo, de tal forma que lo perciba.
  • Apoyo: Los ejecutivos que respaldan la visión sobre el Big Data son esenciales para lograr el éxito del proyecto. En los proyectos de Big Data hace falta tener apoyos e intercesores en la cúpula que estén dispuestos a defender el trabajo que se lleva a cabo.
  • Efecto dominó: El primer proyecto táctico tiene una importancia estratégica vital. Aparte de demostrar más allá de toda duda razonable que el Big Data resulta útil para la unidad de negocio en cuestión, debe asegurarse, asimismo, de que su valor se comunica después con facilidad al resto de la empresa.
  • Competencias trasladables: Como señalábamos en el último punto, el valor del primer proyecto sirve para convencer a otros departamentos de la empresa. Con ese fin, debemos aprender las competencias, las capacidades y las lecciones apropiadas con el primer proyecto. Con más exactitud, debemos documentarlas de manera que se puedan trasladar al siguiente proyecto. Si pretendemos lograr el éxito, debemos mirar a los proyectos futuros.

4.- Las fases de la investigación comercial

  1. Identificación de problemas: Durante esta fase es necesario buscar información objetiva para identificar el problema del demandante, que puede referirse a ámbitos muy diferentes (economía, tiempo, otras opciones más ágiles o sencillas, etc.).
  2. Diseño de la investigación: En este punto es preciso estructurar el proyecto de investigación definiendo las fuentes de datos, los procedimientos y los métodos para recopilar datos. Es recomendable incluir un plan para analizar los datos recabados.
  3. Recogida de información: ¿Qué técnicas de investigación vamos a utilizar? De manera general existen dos: cuantitativa o cualitativa. Éstas las veremos más adelante.
  4. Análisis: En la fase de análisis debemos identificar cuál es la oferta existente del bien que se va a modificar o a introducir en el engranaje comercial.
  5. Conclusiones: En la teoría es el último paso dentro del proceso de investigación. Incluye datos obtenidos y analizados, y desemboca en las conclusiones pertinentes. La intención es reflejar los resultados de la investigación.
  6. Acciones: Las acciones que vamos a llevar a cabo una vez tenemos en nuestro poder la información y los datos útiles que nos ayudarán a planificar nuestra estrategia comercial.

5.- Las fuentes de información

5.1.- Fuentes de información internas

5.2.- Fuentes de información externas

6.- Técnicas de investigación

La investigación de mercados ayuda a comprender este entorno y a situarse en el mismo, ayudando a obtener una situación estable y de crecimiento. Este proceso tiene que ser flexible y continuo, pues los comportamientos globales varían constantemente.

La investigación de mercados puede ser:

  1. Cualitativa: Identificando actitudes, motivaciones, expectativas, deseos o hábitos en el sector, utilizando para ello una muestra reducida de consumidores.
  2. Cuantitativa: Centrándose en la representatividad y en la significación de la compraventa. Este enfoque suele ser más lento y rígido.

Para realizar una buena investigación de mercados es importante tener en cuenta un abanico amplio de disciplinas a través de las cuales conocer todos los puntos de vista. Es útil hacer uso de la economía aplicada, de la estadística, de las matemáticas, la dirección empresarial, la comunicación o la innovación del sector. Pero también se deben tener en cuenta cuestiones sociológicas o psicológicas e incluso filosóficas para comprender, por ejemplo, comportamientos o actuaciones éticas.

Y es que la investigación de mercados es la base para conocer al consumidor, la efectividad de la publicidad, realizar estudios comerciales o de distribución y aspectos como la comunicación o la opinión pública. Todo suma y cuanta más información se procese mayor será el conocimiento del entorno y, por consiguiente, más probabilidades de realizar una integración más efectiva en el mercado.

7.- Tratamiento y análisis de datos

Los investigadores de la actividad comercial, no solo aportan un gran volumen de información, sino que elaboran informes, documentos finales que surgen de exhaustivos análisis. Estos informes nos permiten tener acceso a una gran cantidad de información sintetizada y en la que podemos confiar.

De esta forma, se optimiza el proceso de toma de decisiones gracias al análisis de información. Por ello, el contenido de los informes debe ser expresado de forma clara y concisa. Nuestras fuentes deben ser actuales y validadas previamente, analizando si nos ayudarán a conseguir nuestros objetivos. De esta manera, los resultados obtenidos serán útiles para decisiones, ofreciendo además alternativas.

El análisis de la investigación comercial logra identificar lo principal y separarlo de lo superfluo, sacando en claro las ideas trascendentales. Según el tipo de análisis, entre otras investigaciones que pueden ser importantes se buscará:

  • El momento idóneo para tomar una decisión.
  • Un valor agregado para nuestro producto o servicio.
  • Identificar oportunidades y cómo enfocarlas.

8.- Elaboración y presentación de resultados

La decisión de analizar una investigación u otra determina en gran parte el éxito de la propia investigación.

Si no conseguimos enfocar la investigación desde la existencia de un problema o de una oportunidad, no conseguiremos unos resultados adecuados o satisfactorios.

La información y los datos que aparecen en el informe deben ser interpretados y, posteriormente, se incluirán las recomendaciones sobre las medidas y las acciones que debemos llevar a cabo para conseguir los objetivos propuestos.

Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar