Софт

Здесь представлены краткие характеристики программ для проведения контент-анализа. Постепенно список буду расширять. Подробные обзоры будут содержаться на блоге в рубрике о программах для проведения контент-анализа. 

ЛЕКТА — производит многомерный контент-анализ текстовых массивов. На начальном этапе помогает составить словарь контент-анализа как на основе частотности, так и на основе заранее созданной системе категорий. Позволяет разбить тексты на равные по объёму фрагменты. Далее позволяет объединить единицы счёта и фрагменты текстов в группы с использованием факторного анализа. Таким образом, исследователь получает в своё распоряжение чёткую структуру характеристик изучаемого информационного пространства, обоснованную принципом частотности включённых в словарь лексем. После этого следует качественная интерпретация полученных тематических блоков. Подробное описание работы в программе ЛЕКТА на блоге ЗДЕСЬ.

ATLAS.ti — программа позволяет проводить качественный контент-анализ текста, аудио, видео, графических документов. Большое внимание уделяется процессу кодирования материала. Подробное описание работы в программе находится на блоге по ЭТОЙ ССЫЛКЕ.

TABARI (KEDS) – программа для автоматизированного кодирования данных политических событий. Она использует встроенный анализатор для идентификации слов используемых для проведения контент-анализа. При работе программа обращается к встроенным и загружаемым словарям.  Данные могут быть использованы для работы в других специализированных программах, таких как SPSS и SAS.

JFreq создает матрицы частот употребления слов в массиве, используется для проведения контент-анализа и работает с большинством языков мира.  Не работает с японским, китайским и тайским языками из за принципиально отличной от большинства языков лингвистической системы  этих языков. Программа позволяет исключить из массива нечитаемые символы и знаки не входящие в алфавитную базу данных. Работает на любой операционной системе.

Concordance – программа, используемая для проведения контент-анализа электронных документов, В ней можно создавать списки связанных единиц счёта, индексов, слов, при работе над электронным текстом. Позволяет обрабатывать большие массивы. Даёт возможность просматривать корреляции между словами, входящими в словарь контент-анализа. Результаты работы легко разместить в Интернет с помощью встроенных инструментов программы. Описание на блоге — ЗДЕСЬ

HyperRESEARCH позволяет кодировать, находить и декодировать текстовые, аудио и видео материалы. Позволяет проводить анализ таких форматов данных.

LEXIMANCER – мультиязычное программное обеспечение, производящее контент-анализ больших объёмов текста, позволяющее совмещать в массиве тексты разных жанров и стилей, включая диалектические и другие нетрадиционные формы языка.

PROTAN – комплекс 30-ти программ, интегрированных в один блок, позволяющих проводить контент-анализ массивов текста с помощью встроенных словарей и идентифицировать сюжетные линии, определяя  корреляции между словами словаря посредством проведения факторного анализа.  Обладает большим количеством других функций.

// ]]>TEXTPACK –  кодирует тексты на основе созданных пользователем словарей. Производит сравнение 2-х документов, сравнивая их словарное наполнение, обнаруживает схожие отрывки внутри документов. Данные легко импортируются в такие пакеты, как  SPSS или SAS.

QDA Miner является средством качественного анализа текстовых данных, аннотирования, получения и просмотра кодированных данных. Программа позволяет работать большим числом документов, содержащих как текст, так и числовые данные. QDA Miner также предоставляет широкий спектр поисковых средств для выявления корреляций  кодированных данных. (QDA MINER LITE описан на блоге ЗДЕСЬ)

WordStatмодуль анализа текста, предназначенный специально для обработки материалов, таких как журнальные статьи, литературные произведения, интервью. Как и другие аналогичные программы позволяет создавать категориальный аппарат и словарь контент-анализа. Дальнейший анализ может быть произведён с помощью создания и расчета перекрестных таблиц, а также KWIS-метода.  Пакет позволяет работать и с более сложными методами статистического анализа, такими как кластеризация и многомерное шкалирование. Созданные категориальные аппараты и словари схемы могут быть применены к другим текстовым массивам в дальнейшем.

SALT – программное обеспечение, анализирующее содержимое текстового массива. Поддерживает работу со всеми языками. Определяет среднюю длину предложения, количество искомых слов, общее количество слов. Может создавать алфавитный список слов, кодировать текстовый массив в соответствии с определёнными исследователем кодами. Работает только с операционной системой Windows.

MonoConc – производит поиск единиц текстового анализа, определяет корреляции между ними в массиве.

TROPES – производит хронологически-ролевой качественный анализ текста. Также позволяет получать общую информацию по частотности использования тех или иных единиц счёта.

Qualrus является инструментом проведения  качественного анализа данных, кодирующий элементы массива для дальнейшей обработки. Qualrus может быть использован для проведения полного спектра качественных исследований, в том числе в культурологическом анализе, интерпретации методов,  семиотике, истории, брекетинге, эмпирическом анализе, анализе рассказов и произведений других жанров.

CAMEO – система, созданная для кодирования и аналитики политических коммуникаций.  Включает в себя 20 главных событийных категорий и 200 субкатегорий, обширную базу для кодирования имён политиков в тексте.

AnnoTape – это программное обеспечение для записи и анализа аудио, видео, графических и текстовых данных, предназначенное для качественных исследований, маркетинга, журналистики средств массовой информации, архивных служб. Производит запись звуковых файлов – интервью, бесед, радиопередач напрямую на жесткий диск компьютера. Позволяет сохранять до ста часов звука вместе с текстовыми данными в одной интегрированной базе данных. Производит анализ данных, аннотирование и индексирование оригинальных звуковых и текстовых файлов. Эффективно разбивает на фрагменты массивы аудио-данных

Print Friendly, PDF & Email

Софт: 22 комментария

  1. Так а где скачать/купить вашу «Лекту»?

      1. Спасибо!
        Написал им. Скажите, сколько примерно она может стоить?

        1. Дорого — 5-7 р сейчас, вероятно 🙂 Ну, Вам точную сумму ответят. Именно Лекта необходима для решения задач?

          1. Да, это дороговато. А посоветуйте удобную и, хорошо бы, бесплатную программку для контент-анализа. Задачи-то простые, мне для диплома.

        2. Андрей, софта очень много, включая бесплатный. Опишите, подробнее задачи, которые перед Вами стоят, саму тему, цель и т.д. В частности, какой анализ планируется делать: качественный (обычно предполагает ручное кодирование тематик и пр), количественный (обычно это работа со словарями контент-анализа), или смешанный тип (включает оба варианта)?

          1. Смешанный тип. Лучше, что-то похожее на Лекту.

          1. Ок, спасибо)
            Сейчас попробую разобраться.

  2. Здравствуйте, Алексей!
    Сколько здесь всего вкуусного и интересного! Спасибо Вам за БЛОГ )
    Я пишу диплом в настоящее время и мне понравилась идея с анализом разных текстов брендовых по типам удовлетворяемых потребностей по Маслоу и еще паре классификаций потребностей и мотиваций. Хочу Вашей консультации по программированию, и, может, есть ПО лучше, чем atlas.ti под эти цели?
    Я так понимаю, там еще сильно повозиться с кодированием надо, а я, как типичный студент, в жестком цейтноте…

    1. Здравствуйте, Ирина!
      Рад, что материалы блога оказались полезными 🙂
      Вообще, мне кажется, лучше воспользоваться не ATLAS.ti, а, например, Dedoose. Но, разумеется, всё зависит от конкретных задач исследования. Если опишите их подробнее — то станет понятнее, как и в чем лучше работать. Цели, выборку и пр пр пр))

      1. Выборка М и Ж, с возрастом еще не определились (но будет узкий сегмент более или менее однородный: или молодежь, или платежеспособные 25-40), да как и с выборкой в целом, количество не более 100. Вопросов для интервью все еще нет. Или проще анкеты анализировать? Надо проследить какие потребности удовлетворяются при покупке повседневной одежды в основном, отделить осознанные и декларируемые от подсознательных, но важных. Например, мужчины в основном одеваются из необходимости и физиологических потребностей по Маслоу… Или все же социальных? но для них точно важны функциональные выгоды при выборе бренда; для женщин большее значение имеют символьные выгоды бренда, модность как самореализация, и социальные коммуникативные потребности. А может кто-то очень счастлив от того, что часть доходов от продажи кросовок направляется в Африку? И это духовные потребности. Так же как и экологичность производства и т.п.
        Будут интервью с выборкой и тексты с сайтов брендов повседневной одежды, и, возможно, поискать журнальные статьи о выборе одежды.
        Возможно, пока мои мысли в кучу и сама не могу четко сформулировать цель исследования… Поправьте меня, если не достаточно ясно формулирую задачу. Пока еще само исследование можно корректировать под возможности и инструменты.

        1. Ну, во первых, с помощью контент-анализа вы сможете узнать в первую очередь декларируемые потребности и ценности. На латентные я бы не стал ориентироваться.
          Во вторых, как альтернативный вариант выборки, можно взять комментарии на яндекс маркете в соответствующих разделах или обсуждения на форумах. Возьмите конкретные товары или линейки товаров и скачайте комментарии по теме в таблицу. В таблице дата и время, id сообщения, пол, текст комментария. Мне кажется, это более доступный вариант для получения массива текстов. С интервью много возни, в частности по транскрибированию 🙂

          1. Спасибо за отличный совет по источнику информации! ) Так все таки какую программу взять и как назначить-закодировать категории ценностей и потребностей удовлетворяемых? Возможно ли настройки кодирования у Вас приобрести установить как плагины на программу? Или самой разбираться с настройками?

          2. Если Вы про Dedoose, то это не моя программа)) Просто регистрируетесь в ней и кодируете/анализируете 🙂 Английский язык хорошо знаете?
            Для начала надо определиться с самим набором категорий. Здесь 2 варианта — индуктивный (идти от текста) и дедуктивный (подумать самостоятельно над списком категорий или обратиться к каким-либо источникам, включая научного руководителя по диплому).
            Dedoose работает месяц бесплатно — успеете всё закодировать и проанализировать. Если вдруг не успеете, то месяц для студентов стоит около 10 долларов.
            Заходите на сайт и посмотрите обучающее видео или мануал к программке. Мне кажется, разберетесь))

          3. а все же… возможно ли к Вашей помощи прибегнуть? Вы вроде бы размышляли о создании урока на русском? а я хоть и знаю английский, но как-то сложно въезжаю… Если видео-ликбез не готов, возможно ли взять видео урок по скайпу, например?

          4. Ирина, я в последнее время сильно загружен работой, поэтому, к сожалению, не смогу дать урок по скайпу. Может быть всё же попробуете самостоятельно освоить? совсем трудно изложены/озвучены материалы по DEDOOSE для вас на их сайте? Может быть просто попробовать зарегистрировать и методом тыка поразбираться? 🙂
            Курс я хочу сделать, но вот что-то несколько обленился и после работы совсем над ним не работаю))) Дело немного остановилось на этапе досконального планирования курса. Я его сделаю, но может быть, только через месяца полтора, как мне кажется…

  3. Добрый день! Скажите пожалуйста а где можно приобрести программы TABARI (KEDS) и Atlas.ti. Или может они бесплатно есть?

    1. Добрый день! Atlas.ti — через их сайт можно купить, думаю. По поводу Tabari — не знаю.
      В качестве бесплатной альтернативы могу порекомендовать свою программку (пока что бета версия) — Global QDA — информацию по ней можно найти на блоге. Если что-то не будет работать — пишите 🙂

  4. Добрый день, Алексей. Спасибо за познавательный блог (и без воды! что редкость).
    Я пишу диплом на тему построения личного бренда на основе архетипов Юнга. Моя задача для контент анализа (исследую наиболее успешные личные бренды по версии Форбс):
    1. Для каждого архетипа выделяю 10 наиболее типичных признаков
    2. Прогоняю каждую персону по этим признакам (интервью, личный блог, соц. сети)
    3. анализирую частотность попадая в признаки. Проверяю, относятся ли эти признаки к одном бренду.
    4. делаю выводы
    Я выбрала себе QDA Miner (б/пл версию). Будет ли она оптимальным решением под мою задачу? спасибо!

Обсуждение закрыто.