Volume 42 Number 2

Designing an effective questionnaire in wound care

John Stephenson

Keywords analysis, measures, questionnaire design, response rate, validation

For referencing Stephenson J. Designing an effective questionnaire in wound care . WCET® Journal 2022;42(2):24-29

DOI https://doi.org/10.33235/wcet.42.2.24-29
Submitted 29 April 2022 Accepted 6 May 2022

PDF

Author(s)

References

Français

Introduction

Quantitative data collection via questionnaire is common practice in wound care. Questionnaires are a relatively inexpensive and quick way of amassing data, and do not necessarily require the researcher to be present while the data is being collected. Very often they are the only viable way to collect the data required. Common uses of questionnaires in wound care, which can include questionnaires administered to clinical staff, patients or both, include:

  • To assess the effectiveness of a clinical training programme in increasing staff knowledge of a certain condition.
  • To assess the extent of the use of particular dressing in a certain clinical setting.
  • To evaluate a new piece of equipment.
  • To monitor wound healing under a new treatment regime.
  • To assess a patient-related outcome, such as pain, quality of life or satisfaction with treatment received.

While many fully validated questionnaires are available ‘off-the peg’, researchers in wound care may find that the specific measures captured by these questionnaires do not match the aims of their proposed study, and hence it may be necessary for a bespoke instrument to be designed. Questionnaire-based research involves careful thought regarding selection of the study sample, maximising the response rate, identifying the measures to be assessed, formulating and scoring the constituent items, framing the items for analysis, considering the outcome measures and item scoring, and piloting the questionnaire.

Who is the questionnaire to be given to?

The concept of generalisability – the ability to infer beyond sample data (those who have completed the questionnaire) to a typically much wider parent population – is key to most quantitative research studies. This requires a representative sample of respondents. It is almost impossible to create a sample which exactly reflects the population it is supposed to represent on all aspects. Clinical knowledge is needed to establish important traits – such as job level, patient co-morbidity, or wound type – which will vary from one study to another. Determination of whether a sample does indeed reflect the parent population on the characteristics deemed to be most important to the study may require knowledge of at least the approximate distribution of categories of units in the population of interest: for example, the composition of a typical tissue viability nursing team in a typical organisation may be known, and researchers may seek to reflect that composition in the personnel invited to complete our questionnaire. Failure to ensure that the sample does not differ in some important way from the population it purports to represent may lead to selection bias, which may weaken or invalidate findings.

Some specific features apply to data collected in many wound care studies. First, data must often be collected concurrently on both clinical staff and patients. An example might be a study of the caseload of a community nursing team in which both nurses and their patients will be surveyed; typically, different sets of questionnaire items will be applicable to the nurses and the patients. This often leads to clustered data, where one staff member will be treating several patients. Second, the unit of analysis in wound care studies is not always an individual person, as is often the case in other branches of clinical sciences. It may be a wound, such as a pressure injury, and one patient may supply multiple wounds to the same study. Again, this leads to the issue of clustering of data; here with pressure injuries clustered within individual patients.

Maximising the response rate

Data collection via questionnaire is particularly susceptible to response bias, bias introduced by differences in characteristics between those who choose to complete the questionnaire and those who do not. Although computational methods exist for imputing missing data values, these methods may not be viable in all situations and it is generally preferable to maximise both the proportion of potential responders who actually respond, and the proportion of those who respond who give a complete set of responses. Low response rates also lead to reductions in the power of the analysis – the ability to detect any effect that may exist.

There are some obvious methods of increasing response and completion rates:

  • Use of electronic formats instead of, or as well as, paper-based questionnaires (polite emailed reminders may be sent to non-respondents at appropriate intervals).
  • Avoidance of questionnaires with excessive items. All included items should be included for a specific purpose: each superfluous item increases the chance that a respondent will not complete the questionnaire properly. For example, respondents should not be asked to directly provide information on quantities such as BMI which can be calculated by the researchers from other information provided by respondents.
  • Avoidance of ambiguously worded items. Items should be quick for the respondents to answer by offering a selection of options or visual analogue scales rather than asking for free text. Provision of conditional items can introduce confusion and should be limited.
  • Assurance of participant anonymity, if this is appropriate for the information collected.

Some studies will require questionnaire-based data to be collected on multiple occasions, for example, to monitor quality of life or pain in patients with chronic wounds. A common issue here is that the proportion of completed questionnaires generally decreases at each data collection point. This can introduce further bias in the form of attrition bias, when those lost to follow-up are somehow systematically different from those who return their questionnaires. While little can be done about patients moving away or dying during the follow-up period, attrition loss can nonetheless be minimised by not over-burdening respondents in terms of the frequency of questionnaire mailings, nor the length or complexity of the questionnaires they are required to complete.

Validation / measures to be assessed

Devising appropriate items to efficiently encapsulate outcome measures of interest is often the most difficult part of effective questionnaire design. It is generally preferable to use a questionnaire that is validated for implementation on similar participants. However, full validation is an extensive process: Price and Harding1 reported the development and validation of a questionnaire to measure the impact of chronic wounds (leg ulcers and diabetic foot ulcers) on patient health-related quality of life (HRQoL) and identify areas of patient concern. This involved a three-stage process: a focus group and a series of semi-structured interviews to generate items for the questionnaire; a pilot process of the questionnaire with analysis of data via factor analysis; and assessment of reliability, validity and reproducibility of the resulting scale in a 3-month follow-up period.

While full validation of a self-designed questionnaire is a significant undertaking that may not be within the resources of a clinician who needs to design, implement and analyse data in a limited period of time, some common validation steps may be plausible. Often this will involve input to item wording from a panel of expert clinicians, with clarity of wording possibly assessed via focus groups or other means. The aim is to derive a series of items which each contribute to a different facet of the outcome of interest and, when assessed in conjunction with each other, provide a meaningful measure of the overall outcome. Expert advice may be needed to confirm that an item really is contributing to the measurement of the construct intended, and not some other construct. Barakat-Johnson et al2 developed and evaluated the psychometric properties of an instrument used to assess clinician knowledge of incontinence-associated dermatitis with item development using the input of an expert panel of clinicians as the first stage of a three-stage process; this was then followed by an evaluation of content validity of the instrument via a survey of clinicians and stakeholders, and a pilot multi-site cross-sectional survey design to determine composite reliability.

Content and construct validity should also be addressed during the development process. Items that are too self-similar should be avoided. Rather than each capturing a unique facet of the construct of interest, such items are capturing the same facet, and hence this facet is being double counted, and it is very likely that respondents will respond in the same way to both items. Conversely, however, items which are very different from each other may not be measuring the same construct at all. Another common issue is the ‘overlapping’ of facets of a construct captured by different items. Evaluation of content and construct validity using recognised summary measures and statistical methods were utilised by Barakat-Johnson et al.2 in subsequent stages of the development of their tool.

Item formulation and scoring

Derivation of quantitative data via questionnaire requires ‘closed’ responses (numbers or categories); ‘open-ended’ responses are not generally suitable for quantitative reporting. Closed-form questionnaire items may be formulated in a number of ways. Some of the more common item formulations are:

  • Items eliciting a numerical quantity directly, such as ‘What is your age in years?
  • Items which yield a numerical quantity indirectly, by requesting respondents to provide a response on a visual analogue scale which is subsequently processed by the researcher. A typical example might be to present a line of given length (say 10cm) with both ends clearly labelled as representing extreme values; for example: ‘No pain at all’ and ‘The worst pain imaginable’; and accompanied by an instruction such as ‘Please put a mark on this line corresponding to the level of pain your wound is causing you today’.
  • Items allowing respondents to choose one option from a list of possible options offered.
  • Items allowing respondents to choose as many options as are applicable from a list of possible options offered.

The first two of these types elicit numerical responses; the second two elicit categorical responses. Both types of responses may be potentially of use for subsequent analysis, and the questionnaire should be formatted so that it is possible for respondents to report either a numerical response, or choose from a list of options, as appropriate, to a particular item.

Items eliciting direct or indirect numerical responses are potentially the most straightforward to include in subsequent analysis procedures. However, subsequent data pre-processing can be made easier by framing a question such that respondents do not feel the need to add in unnecessary words: a question such as ‘How long have you worked in this organisation?’ may elicit a range of responses such as ‘Less than 1 year’; 18 months’; ‘About 5 years’ and so forth, which will be interpreted by most computer software as text, rather than numerical responses, and need extensive editing before they can be used for analysis. A simple re-wording such as ‘Please state the number of years (round to the nearest year) that you have worked for this organisation’ might save a lot of pre-processing time. Also, a simple instruction to leave blank any non-applicable items, or items for which the respondent cannot give a correct response, may save more time in deleting various instances of ‘Not applicable’; ‘Don’t know’; ‘Not sure’ and so forth.

It is common practice to introduce artificial categorisation in items yielding numerical data. For example, an item requesting respondents to report their age might offer a choice of age range options: ‘18–30’, ‘31–40’, ‘41–50’ etc. Such approaches are not generally recommended: first, information is lost about the distinction between respondents of different ages within the same age range (there may be considerable differences in the responses of an 18-year-old and those of a 30-year-old); and second, multiple categories in a grouping variable means multiple comparisons are needed in the analysis (outcomes in those aged 18–30 versus those aged 31–40, outcomes in those aged 18–30 versus those aged 41–50 and so on), potentially leading to technical issues and problems of interpretation.

However, for items which capture a construct truly measured at the categorical level, there is no alternative to offering a list of options for respondents to select. The list of options offered should be exhaustive. A respondent who is requested to supply their role in an organisation, for example, only to find that their role is not represented in the options offered, may lose confidence that their participation in the study will result in accurate recording of their views or situation and may be less inclined to complete the rest of the questionnaire accurately.

A similar issue arises when options overlap. If the options for the item ‘How many patients are in your weekly caseload?’ are, say, ‘10 or fewer’; ‘10–20’; ‘20–30’ etc., then someone with a caseload of 10 or 20 patients exactly will not know which option they should select. Another example might be a respondent who is asked to select their job role from a list of options when they actually have two or more roles. This situation can be simply avoided with better item wording, for example: ‘Please select the role from the following list that most closely corresponds to your main job role’.

In formulating items of this kind, it can be tempting to allow respondents a free text response. This may prevent accidental omission of a respondent’s preferred option, or confusion arising from multiple options which are similar, but not identical, to the response that the respondent would prefer to make. However, this allowance may necessitate extensive subsequent pre-processing of free text data into defined groups, which may not always be easy if respondents are not sufficiently explicit in their free-text responses. This situation can often be avoided by offering an ‘Other’ option in the list of options.

The options offered to a categorical item may be nominal (no underlying ordering; in which case the ordering of options is unimportant) or ordinal (in which case options should be presented in a logical order). The ‘classic’ ordinal questionnaire item is the Likert item, the simplest and, by some margin, the most popular formulation for questionnaire items, found in many, if not most, questionnaires. A Likert item is a question which typically asks respondents to choose an option from an ordered list of five options representing the strength of agreement with a particular statement, such as, for example, ‘Product X is an effective treatment for over-granulation’. Typical options to such an item might be ‘Strongly disagree’, ‘Disagree’, ‘Neither agree nor disagree’, ‘Agree’ and ‘Strongly agree’. Other Likert items may ask respondents to assess the frequency or magnitude of an event, such as, for example, ‘Has the area around the wound become swollen?’ Here, typical options might be ‘Not at all’, ‘A little bit’, ‘A moderate amount’, ‘Quite a lot’, ‘A great deal’.

Likert items do not have to offer five options, but in general do offer an odd-number of options, of which five is probably the most common number, to allow for a ‘neutral’ middle option. While items with larger number of options may appear to offer more granularity of response, the distinctions between the points on the scale can be increasingly hard for respondents to discern (‘Some of the time’, ‘Much of the time’, ‘Most of the time’, ‘Almost all the time’ etc.). A visual equivalent of the Likert item is a question worded something like: ‘On a scale of 0 to 10, how much has your wound prevented you from carrying out daily household tasks?’. This is an 11-point item: a common error is to allow the scale in questions of this kind to run from 1 to 10 (rather than 0 to 10). The neutral response in such cases would be represented by a response of 5.5, not 5; although many who respond with the value 5 to items of this kind would no doubt be intending to report a response in the exact centre of the available scale. Items with a wide set of ordinal responses behave in some ways like items yielding numerical responses indirectly via a visual analogue scale.

Items that request respondents to select ‘as many options are applicable’ are acceptable, but such items can be significantly harder to analyse than corresponding items which request only a single option to be chosen. For example, an item such as ‘Which of the following wound dressings do you use on a regular basis – please select all that apply’ followed by a list of 26 options (Product A, Product B, Product C … Product Z), is actually equivalent, in analysis terms, to a series of 26 questions: ‘Do you use Wound Dressing Product A on a regular basis – yes or no?’; ‘Do you use Wound Dressing Product B on a regular basis – yes or no?’… ‘Do you use Wound Dressing Product Z on a regular basis – yes or no?’. This series of items will probably lead to a wide range of combinations of responses and give rise to dozens of pairwise comparisons, all of which will be difficult to interpret.

Framing the items for analysis

A typical questionnaire may begin with some basic demographic questions, eliciting respondents’ demographic and lifestyle attributes, such as age, sex, family status etc.; and/or items relating to their health condition (presence of various mental or physical health conditions, duration of pre-existing wound) or employment status (length of service, staff grade etc.). Some of these items may be included to help illustrate the diversity or characteristics of the sample but will take no further part in the analysis itself.

Within reason, items measuring such ‘background variables’, which are typically factual questions eliciting numerical or categorical responses, rather than from Likert-style or similar items, can be recorded in whatever way is desired. Questionnaires which are designed to present data descriptively, but will not involve any kind of inferential analysis (i.e. inferring from sample data to a parent population), may be limited to items of this kind. Such studies are typically designed to assess the prevalence or proportion of a quantity, such as a study to ascertain the proportion of nurses using a particular wound care product, or the proportion of clinical staff who respond to a visual prompt such as skin reddening. Brown and Sneddon3 implemented a questionnaire, comprised of mostly ‘stand-alone’ items with ordinal responses, to understand how lymphoedema services are funded and delivered across the UK and their level of resource. The questionnaire data yielded estimates of proportions (for example, the proportion of clinicians surveyed who treated open wounds) but the researchers did not attempt to generalise beyond the sample data.

However, inferential analysis is generally within the scope of most quantitative studies, and hence most questionnaires eliciting quantitative data will include items which are needed for subsequent inferential analysis. For example, with respect to a certain outcome or outcomes, it may be desired to compare experienced and novice staff, or ICU patients who are turned regularly and those who are not, or a new piece of equipment and standard equipment. These analyses are examples of comparative studies, in which two or more groups are compared against each other: many standard research study designs, such as cohort studies, case-control studies and randomised controlled designs, fall into this bracket. Ousey et al4 used questionnaire-based data to compare a novel design of mattress against a standard mattress on a range of patient experience metrics (comfort, temperature and sleep quality) of patients. The researchers used standard inferential statistical methods to compare the significance and magnitude of effects, with groups defined by mattress type.

Items used to define grouping variables in these studies are categorical. Categorical variables which can take one of only two categories (or ‘levels’, as they are sometimes known) are known as binary variables, as in the study of Ousey et al.4. Some grouping variables may comprise more than two categories. For example, a study comparing outcomes in patients who may be classified as being underweight, normal weight, overweight, having obesity or having morbid obesity, might use a grouping variable ‘Obesity status’ to classify each questionnaire respondent into one of the above five categories.

Such multi-categorical grouping variables should be specified with caution; while a binary grouping variable leads to a single analysis (for example, outcome in males versus outcome in females), the number of analyses required quickly increases with the introduction of multiple-level grouping variables. Another reason to limit multiple-level grouping variables is that although items recording grouping variables should, in general, allow respondent selection of any possible item, researchers should be prepared for the eventuality of thinly-spread data across multiple categories, leading to some groups which are really too small to meaningfully analyse. In such circumstances, it may be necessary to merge certain categories together before analysis.

Outcome measures

In most questionnaires, the majority of items relate to the elicitation of outcome measures. Many outcomes are categorical, often binary, for example, the probability of a wound proceeding to 50% healing by 30 days after treatment; or multi-categorical, for example, predominant tissue type in wound bed. Such outcomes can generally be easily captured in a questionnaire with a single binary or ordinal item. Dhoonmoon5 surveyed the experience of 56 healthcare professionals (HCPs) of the use of a debridement pad via a feedback questionnaire. Most items, including those related to pad performance (removing slough debris, debridement action etc.) were assessed using categorical items, with options from ‘excellent’ to ‘poor’. Such measures lend themselves naturally to ordinal categorical assessment. For ease of analysis or other purpose, many ordinal outcomes are dichotomised – for example, one of the measured outcomes in the Ousey et al4 study (sleep quality) was processed for analysis from its original five options (‘excellent’, ‘very good’, ‘good’, ‘adequate’, ‘poor’) into a dichotomous measure comparing the responses of ‘excellent’ or ‘very good’ with any other response. Numerical outcomes, such as the percentage of patients healed, or the time for pain levels to reach a certain pre-specified value, may also be found but are less common in questionnaire-based analysis in wound care.

Item scoring

Questionnaires are typically used to evaluate quantities for which no simple objective measure exists. In the context of a wound care study, these may be, for example, a clinician’s evaluation of a new pressure re-distributing mattress, or a patient’s opinion as to how much their wound prevents them from carrying out everyday tasks. Such quantities typically cannot be encapsulated within a single item; a series of items, all of which tap into the construct of interest, may be needed. Examples include the knowledge of dermatitis of a trainee nurse who has recently completed a workshop session on this subject, or the quality of life experienced by a patient living with a chronic wound. Typically, these constituent items may be Likert-style or similar. In such cases, interest is almost invariably centred on the processed score of a set of items, and not on any of the individual items themselves. Hence while, in theory, each item on a questionnaire item could represent a single measure, the number of distinct measures captured on a typical questionnaire is usually a lot less than the number of items in the questionnaire, with several items contributing to the evaluation of each construct.

Limitation of the number of outcomes is generally desirable: extensive presentation of results of individual outcomes in the form of, for example, pie charts may give little insight into the relative importance of the various findings. There are also certain analysis issues which may make large numbers of primary outcomes undesirable. Just like studies which collect data through other means, the ideal questionnaire probably captures information on a single, pre-specified primary outcome, and a small number of secondary outcomes.

A score is needed for all items which contribute to the evaluation of a particular measure. Typically, the scoring for 5-point Likert items is very simple – from 1 point for ‘Strongly disagree’ to 5 points for ‘Strongly agree’, with intermediate options scored accordingly. Likert items with other numbers of options are scored in a similar way. Many researchers prefer to use a coding such as: –2 points for ‘Strongly disagree’, –1 point for Disagree and so on up to +2 points for ‘Strongly agree’, possibly with the idea that negatively worded responses require negative scores. This coding is exactly equivalent to the 1–5 coding mentioned above – the score for each option is reduced by 3 points for all options. As long as this scoring is applied consistently, inferences will be the same under either scoring systems.

It is normally assumed that item scores are additive, that it is meaningful to derive an overall score by adding up the scores obtained on individual items which contribute to the same measure. This assumption is often easier to justify if there is consistency in the formulation of items. It not obvious how an overall score should be derived with a series of items with a number of options that varies from, say, 2 to 3 to 5 to 7. Scores from the items with the largest number of options will swamp those from items with fewer responses if, for each item, responses are simply coded as 1 up to the value of the number of the options.

It is also harder to justify that summing scores from multiple items leads to a meaningful measure, even if the number of options in each item is the same, if the options are different. If one set of items offers the options ‘Strongly disagree’, ‘Disagree…’ ‘Strongly agree’ and another set offers the options ‘Not at all’, ‘A little bit…’ ‘A great deal’, it may be difficult to argue that the scores from the two sets of items can be meaningfully combined.

To ensure a meaningful total, the above coding may need to be reversed if some items are in the opposite sense to others, for example, if 5-point Likert items such as ‘My wound has forced me to limit my activities with others’ and ‘The wound has affected my sleep’ are coded using the 1–5 scale above, with 1 point awarded for a response of ‘Strongly disagree’ and 5 points awarded for a response of ‘Strongly agree’, then the implication is that higher scores indicate worse outcomes. Hence if an additional item in the same scale such as, for example, ‘I am able to carry out everyday tasks without difficulty’ is to be included, this item could be coded such that ‘Strongly agree’ is awarded 5 points, ‘Strongly disagree’ 1 point, and other points of the scale scored accordingly, for consistency with the remaining scale items.

Piloting the questionnaire

Pilot implementation can be a useful tool in the refinement of questionnaire items and can reveal issues which may impact on subsequent response rate and response reliability such as poor clarity of item wording or excessive time taken for questionnaire completion. If a questionnaire includes a set of Likert-style or similar items which are designed to tap into the same construct, the internal consistency of the pilot responses to these items can be assessed easily and quickly using the most statistical software. This process can identify items which are not responded to in a similar manner to other items purporting to be measuring the same construct, and hence may require amendments to their wording (if the wording is unclear or has been misunderstood by respondents), deletion from the questionnaire, or possibly moving to the measurement of another construct. The pilot stage is generally the only opportunity to make such amendments if they are needed.

Summary

Good questionnaire design is driven by the research question, and the analysis that proceeds from it. Consideration of the end point is in fact generally the starting point. Issues to be considered include determination of the outcomes to be measured; how are they to be measured; whether outcomes are objective measures that can be adequately captured using items eliciting simple numerical responses or categories, or require multiple items to capture a series of specific facets of the measure.

The level(s) at which the analysis is to be conducted must also be determined – in wound care studies, analyses at the patient, clinician or wound level are all commonplace. It must also be determined whether or not outcomes are to be linked to any other variables, and whether the desired groups for comparison are featured in the items functioning as grouping variables to classify units of analysis (whether patients, clinicians or wounds) appropriately.

Data collection via questionnaire should be approached just as data collection via medical devices or other means – it is necessary to ensure that the data collection instrument is fit for purpose. This means that as many steps as possible along the validation road are taken (assuming that a pre-validated instrument is not being used) to ensure that we are measuring the outcomes we think we are measuring, via carefully worded items grouped and scored appropriately. Care should be taken that only as many items as are necessary are used to capture demographics, other background information and outcome measures. It is necessary to ensure that respondents are, as far as possible, a representative sample of the population to which generalisations are to be made. Response rates are maximised by making the items as clear as possible, and by asking as little as possible of respondents in terms of the length of time and the amount of effort they will need to complete the questionnaire, just as might be done using other means of data collection.

While it is easy to under-estimate the effort required to facilitate effective questionnaire-based data collection, when conducted properly, questionnaire-based data collection can be a highly effective means of data collection and form a sound base for research studies.

Conflict of interest

The authors declare no conflicts of interest.

Funding

The authors received no funding for this study.


Concevoir un questionnaire efficace dans le domaine du traitement des plaies

John Stephenson

DOI: https://doi.org/10.33235/wcet.42.2.24-29

Author(s)

References

PDF

Introduction

La collecte de données quantitatives via un questionnaire est une pratique courante dans le domaine du traitement des plaies. Les questionnaires sont un moyen relativement peu coûteux et rapide de collecter des données, et ne nécessitent pas nécessairement la présence du chercheur pendant la collecte des données. Très souvent, ils constituent le seul moyen viable de collecter les données requises. Les questionnaires dans le domaine du traitement des plaies, qui peuvent inclure des questionnaires adressés au personnel clinique, aux patients ou aux deux, visent le plus couramment à:

  • Évaluer l'efficacité d'un programme de formation clinique pour améliorer les connaissances du personnel sur une certaine maladie.
  • Évaluer l'étendue de l'utilisation d'un pansement particulier dans un contexte clinique donné.
  • Évaluer une nouvelle pièce d'équipement.
  • Suivre la cicatrisation des plaies avec un nouveau protocole de soins
  • Évaluer un résultat lié au patient, comme la douleur, la qualité de vie ou la satisfaction à l'égard du traitement reçu.

Alors que de nombreux questionnaires entièrement validés sont disponibles “prêts à l’usage“, les chercheurs dans le domaine du traitement des plaies peuvent trouver que les mesures spécifiques collectées par ces questionnaires ne correspondent pas aux objectifs de l'étude qu'ils proposent, et il peut donc être nécessaire de concevoir un instrument sur mesure. La recherche par questionnaire implique une réflexion approfondie sur la sélection de l'échantillon de l'étude, l’optimisation du taux de réponse, l'identification des mesures à évaluer, la formulation et la notation des éléments constitutifs, le cadrage des éléments pour l'analyse, la prise en compte des mesures de résultats et la notation des éléments, et le pilotage du questionnaire.

A qui le questionnaire doit-il être remis ?

Le concept de généralisation - la capacité de d’inférer, au-delà des données de l'échantillon (ceux qui ont rempli le questionnaire), à une population mère généralement beaucoup plus large - est essentiel à la plupart des études de recherche quantitative. Cela nécessite un échantillon représentatif de répondants. Il est presque impossible de créer un échantillon qui reflète exactement la population qu'il est censé représenter sur tous les plans. Des connaissances cliniques sont nécessaires pour établir des caractéristiques importantes - telles que le niveau d'emploi, les comorbidités du patient ou le type de plaie - qui varieront d'une étude à l'autre. Pour déterminer si un échantillon reflète effectivement la population mère pour ce qui est des caractéristiques jugées les plus importantes pour l'étude, il peut être nécessaire de connaître au moins la distribution approximative des catégories d'unités dans la population concernée: par exemple, on peut connaître la composition d'une équipe de soins infirmiers en viabilité tissulaire typique dans une organisation typique, et les chercheurs peuvent chercher à refléter cette composition dans le personnel invité à remplir notre questionnaire. Le fait de ne pas s'assurer que l'échantillon ne diffère pas de manière importante de la population qu'il est censé représenter peut entraîner un biais de sélection, ce qui peut affaiblir ou invalider les résultats.

Certaines caractéristiques spécifiques s'appliquent aux données recueillies dans de nombreuses études sur le traitement des plaies. Premièrement, les données doivent souvent être recueillies simultanément auprès du personnel clinique et des patients. Par exemple, une étude de la charge de travail d'une équipe d'infirmières et infirmiers d’une communauté donnée dans laquelleles infirmiers comme leurs patients seront interrogés; habituellement, différentes séries d'éléments du questionnaire seront applicables aux infirmiers et aux patients. Cela conduit souvent à des données groupées, où un membre du personnel traitera plusieurs patients. Deuxièmement, l'unité d'analyse dans les études portant sur le traitement des plaies n'est pas toujours une personne individuelle, comme c'est souvent le cas dans d'autres branches des sciences cliniques. Il peut s'agir d'une plaie, comme une lésion de pression, et un patient peut fournir plusieurs plaies à la même étude. Encore une fois, cela conduit à la question du regroupement des données : ici, les lésions de pression sont regroupées au sein de chaque patient.

Optimiser le taux de réponse

La collecte de données par questionnaire est particulièrement sensible au biais de réponse, biais introduit par les différences de caractéristiques entre ceux qui choisissent de remplir le questionnaire et ceux qui ne le font pas. Bien qu'il existe des méthodes de calcul pour imputer les valeurs des données manquantes, ces méthodes peuvent ne pas être viables dans toutes les situations et il est généralement préférable d’optimiser à la fois la proportion de répondants potentiels qui répondent effectivement et la proportion de ceux qui répondent et donnent un ensemble complet de réponses. De faibles taux de réponse entraînent également une réduction de la puissance de l'analyse, c'est-à-dire de la capacité à détecter tout effet éventuel.

Il existe des méthodes évidentes pour augmenter les taux de réponse et de remplissageg:

  • Recourir à des formats électroniques au lieu, ou en plus, des questionnaires papier (des rappels polis par courriel peuvent être envoyés aux non-répondants à des intervalles appropriés).
  • Éviter les questionnaires comportant trop de questions. Tous les questions incluses doivent l'être dans un but précis: chaque question superflue augmente le risque qu'un répondant ne remplisse pas correctement le questionnaire. Par exemple, il ne faut pas demander aux répondants de fournir directement des informations sur des quantités telles que l'IMC, qui peuvent être calculées par les chercheurs à partir d'autres informations fournies par les répondants.
  • Éviter les questions formulées de manière ambiguë. Les questions doivent permettre aux répondants de répondre rapidement en proposant une sélection d'options ou des échelles visuelles analogiques plutôt que de demander du texte libre. Poposer des questions conditionnelles peut introduire une certaine confusion et doit être limitée.
  • Garantir l'anonymat des participants, si cela est approprié pour les informations recueillies.

Certaines études nécessiteront de collecter les données par questionnaire à plusieurs reprises, par exemple pour surveiller la qualité de vie ou la douleur chez les patients souffrant de plaies chroniques. Un problème courant ici est que la proportion de questionnaires remplis diminue généralement à chaque point de collecte de données. Cela peut introduire un biais supplémentaire sous la forme d'un biais d'attrition, lorsque les personnes perdues au cours du suivi sont en quelque sorte systématiquement différentes de celles qui renvoient leurs questionnaires. Si l'on ne peut pas faire grand-chose contre le déménagement ou le décès des patients pendant la période de suivi, on peut néanmoins réduire les pertes par attrition en ne surchargeant pas les répondants en termes de fréquence d'envoi des questionnaires, ni de longueur ou de complexité des questionnaires qu'ils doivent remplir.

Validation / mesures à évaluer

La conception de questions appropriées pour encapsuler efficacement les mesures de résultats d'intérêt est souvent la partie la plus difficile de la conception d'un questionnaire efficace. Il est généralement préférable d'utiliser un questionnaire dont la mise en œuvre a été validée sur des participants similaires. Toutefois, la validation complète est un processus de longue haleine: Price et Harding1 ont décrit l'élaboration et la validation d'un questionnaire visant à mesurer l'impact des plaies chroniques (ulcères de jambe et ulcères du pied diabétique) sur la qualité de vie liée à la santé (QVLS) des patients et à identifier les sujets de préoccupation des patients. Ce processus s'est déroulé en trois étapes: un groupe de discussion et une série d'entretiens semi-structurés pour générer des questions pour le questionnaire; un processus pilote du questionnaire avec une analyse des données via une analyse factorielle; et une évaluation de la fiabilité, de la validité et de la reproductibilité de l'échelle résultante dans une période de suivi de 3 mois.

Bien que la validation complète d'un questionnaire conçu soi-même soit une entreprise importante qui n'est peut-être pas à la portée d'un praticien qui devra concevoir, mettre en œuvre et analyser des données dans une période de temps limitée, certaines étapes courantes de validation peuvent être concevables. Souvent, cela implique la contribution d'un panel de praticiens experts dans la formulation des questions, la clarté de la formulation pouvant être évaluée par des groupes de discussion ou d'autres moyens. L'objectif est d’en tirer une série de questions qui contribuent chacun à un aspect différent du résultat d'intérêt et qui, lorsqu'elles sont évaluése en conjonction les unes avec les autres, fournissent une mesure significative du résultat global. L'avis d'un expert peut être nécessaire pour confirmer qu'une question contribue réellement à la mesure du concept visé, et non d'un autre concept. Barakat-Johnson et al.2 ont développé et évalué les propriétés psychométriques d'un instrument utilisé pour évaluer les connaissances des praticiens en matière de dermatite associée à l'incontinence. L'élaboration des questions s'est appuyée sur la contribution d'un panel d'experts praticiens, première étape d'un processus en trois temps, suivie d'une évaluation de la validité du contenu de l'instrument par le biais d'une enquête auprès des praticiens et des parties prenantes, et d'une enquête pilote transversale multi-sites pour déterminer la fiabilité composite.

La validité du contenu et du concept doit également être abordée au cours du processus de développement. Les questions trop similaires sont à éviter. Au lieu de capturer chacune un aspect unique du concept d'intérêt, ces questions capturent le même aspect, et donc cet aspect est compté deux fois, et il est très probable que les répondants répondent de la même manière aux deux questions. Inversement, des questions trop différentes les uns des autres peuvent ne pas mesurer le même concept. Un autre problème courant est le "chevauchement" des aspect d'un concept capturé par différentes questions. L'évaluation de la validité de contenu et de conceptualisation à l'aide de mesures de résumé et de méthodes statistiques reconnues a été utilisée par Barakat-Johnson et al.2 dans les étapes ultérieures du développement de leur outil.

Formulation et notation des questions

L'obtention de données quantitatives par le biais d'un questionnaire nécessite des réponses "fermées" (chiffres ou catégories); les réponses "ouvertes" ne conviennent généralement pas à l'établissement de rapports quantitatifs. Les questions du questionnaire de type fermé peuvent être formulées de plusieurs façons. Certaines des formulations de questions les plus courantes sont les suivantes:

  • Questions demandant directement une quantité numérique, telles que ”Quel est votre âge en années ?
  • Questions qui produisent indirectement une quantité numérique, en demandant aux répondants de fournir une réponse sur une échelle visuelle analogique qui est ensuite traitée par le chercheur. Un exemple typique pourrait être de présenter une ligne de longueur donnée (disons 10 cm) dont les deux extrémités sont clairement identifiées comme représentant des valeurs extrêmes (par exemple: ”Pas de douleur du tout” et "La pire douleur imaginable") et accompagnée d'une instruction telle que "Veuillez cocher cette ligne en fonction du niveau de douleur que votre plaie vous cause aujourd'hui".
  • Questions permettant aux répondants de choisir une option dans une liste d'options possibles proposées.
  • Questions permettant aux répondants de choisir autant d'options que nécessaire parmi une liste d'options possibles proposées.

Les deux premiers types suscitent des réponses numériques, les deux autres des réponses catégorielles. Les deux types de réponses peuvent être potentiellement utiles pour une analyse ultérieure, et le questionnaire doit être formaté de manière à permettre aux répondants de donner une réponse numérique ou de choisir dans une liste d'options, selon le cas, pour une question particulière.

Les questions suscitant des réponses numériques directes ou indirectes sont potentiellement les plus simples à inclure dans les procédures d'analyse ultérieures. Toutefois, le prétraitement ultérieur des données peut être facilité par la formulation d'une question telle que les répondants ne ressentent pas le besoin d'ajouter des mots inutiles: une question telle que ”Depuis combien de temps travaillez-vous dans cette organisation ?” peut susciter une série de réponses telles que "moins d'un an", "18 mois", "environ 5 ans" et ainsi de suite, qui seront interprétées par la plupart des logiciels informatiques comme du texte, plutôt que comme des réponses numériques, et nécessiteront un traitement approfondi avant de pouvoir être utilisées pour l'analyse. Une simple reformulation du type "Veuillez indiquer le nombre d'années (arrondi à l'année la plus proche) pendant lesquelles vous avez travaillé pour cette organisation" peut permettre de gagner beaucoup de temps de prétraitement. De même, la simple instruction de laisser en blanc toutes les questions non pertinentes ou les questions pour lesquels le répondant ne peut pas donner de réponse exacte, peut faire gagner du temps en supprimant les diverses occurrences de "sans objet", "ne sais pas", "pas sûr", etc.

Il est courant d'introduire une catégorisation artificielle dans les questions produisant des données numériques. Par exemple, une question demandant aux répondants de déclarer leur âge pourrait offrir un choix d'options de tranches d'âge: 18-30”, "31-40", "41-50", etc. Ces approches ne sont généralement pas recommandées: premièrement, on perd des informations sur la distinction entre les répondants de différents âges au sein d'une même tranche d'âge (il peut y avoir des différences considérables entre les réponses d'un jeune de 18 ans et celles d'un jeune de 30 ans). Deuxièmement, les catégories multiples dans une variable de regroupement signifient que de multiples comparaisons sont nécessaires dans l'analyse (résultats chez les 18-30 ans par rapport aux 31-40 ans, résultats chez les 18-30 ans par rapport aux 41-50 ans et ainsi de suite), ce qui peut entraîner des problèmes techniques et d'interprétation.

Cependant, pour les questions qui capturent un concept réellement mesuré au niveau catégoriel, il n'y a pas d'autre solution que de proposer une liste d'options à sélectionner par les répondants. La liste des options proposées doit être exhaustive. Un répondant à qui l'on demande de préciser sa fonction dans une organisation, par exemple, et qui découvre que sa fonction n'est pas représentée dans les options proposées, peut perdre confiance dans le fait que sa participation à l'étude aboutira à un enregistrement précis de ses opinions ou de sa situation et peut être moins enclin à remplir le reste du questionnaire avec précision.

Un problème similaire se pose lorsque les options se chevauchent. Si les options pour la question ”Combien de patients prenez-vous en charge par semaine ?” sont, par exemple, "10 ou moins", "10 à 20", "20 à 30", etc., une personne ayant une charge de travail de 10 ou 20 patients exactement ne saura pas quelle option elle doit choisir. Un autre exemple pourrait être celui d'un répondant à qui l'on demande de choisir sa fonction professionnelle dans une liste d'options alors qu'il a en réalité deux fonctions ou plus. Cette situation peut être simplement évitée en améliorant la formulation des questions, par exemple: "Veuillez sélectionner dans la liste suivante la fonction qui correspond le mieux à la fonction principale de votre travail”.

En formulant des questions de ce type, il peut être tentant d'autoriser les répondants à répondre en texte libre. Cela peut permettre d'éviter l'omission accidentelle de l'option préférée d'un répondant, ou la confusion résultant de plusieurs options similaires, mais non identiques, à la réponse que le répondant préférerait donner. Toutefois, cette possibilité peut nécessiter un prétraitement ultérieur important des données de texte libre en groupes définis, ce qui n'est pas toujours facile si les répondants ne sont pas suffisamment explicites dans leurs réponses en texte libre. Cette situation peut souvent être évitée en proposant une option "autre" dans la liste des options.

Les options proposées pour une question catégorielle peuvent être nominales (pas d'ordre sous-jacent; dans ce cas, l'ordre des options n'a pas d'importance) ou ordinales (dans ce cas, les options doivent être présentées dans un ordre logique). L'élément ordinal "classique" d'un questionnaire est la question de Likert, la formulation la plus simple et, de loin, la plus populaire des questions de questionnaire, que l'on retrouve dans de nombreux questionnaires, sinon la plupart. Une question de Likert est une question qui demande généralement aux répondants de choisir une option dans une liste ordonnée de cinq options représentant le degré d'accord avec un énoncé particulier, comme par exemple: "Le produit X est un traitement efficace contre la granulation excessive". Les options typiques d'une telle question peuvent être "pas du tout d'accord", "pas d'accord", "ni d'accord ni pas d’accord", "d'accord" et "tout à fait d'accord". D'autres questions de Likert peuvent demander aux répondants d'évaluer la fréquence ou l'ampleur d'un événement, comme par exemple: "La zone autour de la plaie est-elle devenue gonflée?" Ici, les options typiques peuvent être "pas du tout", "un petit peu", "un peu", "assez", "beaucoup".

Les questions de Likert ne doivent pas nécessairement offrir cinq options, mais en général, elles offrent un nombre impair d'options, dont cinq est probablement le nombre le plus courant, afin de permettre une option médiane "neutre". Alors que les questions comportant un plus grand nombre d'options peuvent sembler offrir une plus grande granularité de réponse, les distinctions entre les points de l'échelle peuvent être de plus en plus difficiles à discerner pour les répondants ("quelquefois", "souvent", "la plupart du temps", "presque tout le temps", etc.) Un équivalent visuel de la question de Likert est une question formulée de la manière suivante: “Sur une échelle de 0 à 10, dans quelle mesure votre plaie vous empêche-t-elle d'accomplir les tâches ménagères quotidiennes?“ Il s'agit d'une question à 11 points: une erreur fréquente consiste à laisser l'échelle dans les questions de ce type aller de 1 à 10 (plutôt que de 0 à 10). Dans ce cas, la réponse neutre serait représentée par une réponse de 5,5, et non de 5, bien que de nombreuses personnes qui répondent par la valeur 5 à des questions de ce type aient sans doute l’intention de donner une réponse se situant exactement au centre de l’échelle disponible. Les questions comportant un large éventail de réponses ordinales se comportent d’une certaine manière comme les questions donnant des réponses numériques indirectement via une échelle visuelle analogique.

Les questions qui demandent aux répondants de choisir ”autant d’options que nécessaire“ sont acceptables, mais elles peuvent être beaucoup plus difficiles à analyser que les questions correspondantes qui ne demandent de choisir qu’une seule option. Par exemple, une questions telle que "Lequel des pansements suivants utilisez-vous régulièrement - veuillez sélectionner tous ceux qui sont concernés" suivi d'une liste de 26 options (Produit A, Produit B, Produit C ... Produit Z), est en fait équivalent, en termes d'analyse, à une série de 26 questions: ”Utilisez-vous régulièrement le pansement A - oui ou non?”; ”Utilisez-vous régulièrement le pansement B - oui ou non?”... ”Utilisez-vous régulièrement le produit Z comme pansement - oui ou non?”. Cette série de questions conduira probablement à un large éventail de combinaisons de réponses et donnera lieu à des dizaines de comparaisons par paires, qui seront toutes difficiles à interpréter.

Cadrage des éléments pour l’analyse

Un questionnaire type peut commencer par des questions démographiques de base, permettant d'obtenir les caractéristiques démographiques et de style de vie des répondants, telles que l'âge, le sexe, la situation familiale, etc., et/ou des questions relatives à leur état de santé (présence de divers problèmes de santé mentale ou physique, durée de la plaie préexistante) ou à leur statut professionnel (ancienneté, grade, etc.). Certaines de ces questions peuvent être incluses pour aider à illustrer la diversité ou les caractéristiques de l'échantillon, mais ne prendront pas part à l'analyse proprement dite.

Dans la limite du raisonnable, les questions mesurant ces "variables de base", qui sont généralement des questions factuelles suscitant des réponses numériques ou catégorielles, plutôt que des questions de type Likert ou similaires, peuvent être enregistrés de la manière souhaitée. Les questionnaires qui sont conçus pour présenter des données de manière descriptive, mais qui n'impliquent aucune sorte d'analyse inférentielle (c'est-à-dire l'inférence de données d'un échantillon à une population mère), peuvent être limités à des questions de ce type. Ces études sont généralement conçues pour évaluer la prévalence ou la proportion d'une quantité, comme une étude visant à déterminer la proportion d'infirmières et infirmiers utilisant un produit particulier pour le traitement des plaies, ou la proportion de personnel clinique qui réagit à une incitation visuelle telle que la rougeur de la peau. Brown et Sneddon3 ont mis en place un questionnaire, composé principalement de questions "autonomes" avec des réponses ordinales, pour comprendre comment les services de traitement du lymphoedème sont financés et fournis à travers le Royaume-Uni et leur niveau de ressources. Les données du questionnaire ont permis d'estimer des proportions (par exemple, la proportion de praticiens interrogés qui ont traité des plaies ouvertes) mais les chercheurs n'ont pas tenté de généraliser au-delà des données de l'échantillon.

Cependant, l'analyse inférentielle fait généralement partie du champ d'application de la plupart des études quantitatives, et donc la plupart des questionnaires sollicitant des données quantitatives comprendront des questions nécessaires à une analyse inférentielle ultérieure. Par exemple, pour un ou plusieurs résultats, on peut souhaiter comparer le personnel expérimenté et le personnel novice, ou les patients des soins intensifs qui sont revenus régulièrement et ceux qui ne l’ont pas fait, ou encore un nouvel équipement et un équipement standard. Ces analyses sont des exemples d'études comparatives, dans lesquelles deux groupes ou plus sont comparés l'un à l'autre: de nombreux modèles standard d'études de recherche, tels que les études de cohorte, les études cas-témoins et les modèles contrôlés randomisés, entrent dans cette catégorie. Ousey et al.4 ont utilisé des données recueillies par questionnaire pour comparer un matelas de conception nouvelle à un matelas standard sur une série de mesures de l'expérience des patients (confort, température et qualité du sommeil). Les chercheurs ont utilisé des méthodes statistiques inférentielles standard pour comparer l'importance et la magnitude des effets, les groupes étant définis par le type de matelas.

Les questions utilisées pour définir les variables de regroupement dans ces études sont catégorielles. Les variables catégorielles qui ne peuvent prendre que deux catégories (ou "niveaux", comme on les appelle parfois) sont appelées variables binaires, comme dans l'étude de Ousey et al.4. Certaines variables de regroupement peuvent comprendre plus de deux catégories. Par exemple, une étude comparant les résultats de patients pouvant être classés comme étant en sous-poids, de poids normal, en surpoids, obèses ou atteints d'obésité morbide, pourrait utiliser une variable de regroupement "état d'obésité" pour classer chaque répondant au questionnaire dans l'une des cinq catégories ci-dessus

Ces variables de regroupement multi-catégorielles doivent être spécifiées avec prudence; alors qu'une variable de regroupement binaire conduit à une seule analyse (par exemple, le résultat chez les hommes par rapport au résultat chez les femmes), le nombre d'analyses requises augmente rapidement avec l'introduction de variables de regroupement à niveaux multiples. Une autre raison de limiter les variables de regroupement à niveaux multiples est que, bien que les questions enregistrant les variables de regroupement doivent, en général, permettre aux répondants de choisir n'importe quelle question possible, les chercheurs doivent être préparés à l'éventualité de données faiblement réparties dans plusieurs catégories, ce qui conduit à des groupes vraiment trop petits pour être analysés de manière significative. Dans ces circonstances, il peut être nécessaire de fusionner certaines catégories avant de les analyser.

Mesures des résultats

Dans la plupart des questionnaires, la majorité des questions concernent l'obtention de mesures de résultats. De nombreux résultats sont catégoriels, souvent binaires, par exemple, la probabilité de cicatrisation de 50% d'une plaie 30 jours après le traitement, ou multi-catégoriels, par exemple, le type de tissu prédominant dans le lit de la plaie. Ces résultats peuvent généralement être facilement saisis dans un questionnaire comportant une seule question binaire ou ordinale. Dhoonmoon5 a étudié l'expérience de 56 professionnels de santé (PS) concernant l'utilisation d'un tampon de débridement par le biais d'un questionnaire de rétroaction. La plupart des éléments, y compris ceux liés à la performance des tampons (élimination des débris d’escarre, débridement, etc.) ont été évalués à l'aide de questions catégorielles, avec des options allant de "excellent" à "médiocre". Ces mesures se prêtent naturellement à une évaluation catégorielle ordinale. Pour faciliter l'analyse ou à d'autres fins, de nombreux résultats ordinaux sont dichotomisés - par exemple, l'un des résultats mesurés dans l'étude d'Ousey et al.4 (la qualité du sommeil) a été transformé pour l'analyse à partir de ses cinq options originales ("excellent", "très bon", "bon", "adéquat", "mauvais") en une mesure dichotomique comparant les réponses "excellent" ou "très bon" à toute autre réponse. Des résultats numériques, tels que le pourcentage de patients guéris, ou le temps nécessaire pour que les niveaux de douleur atteignent une certaine valeur pré-spécifiée, peuvent également être trouvés mais sont moins courants dans les analyses basées sur des questionnaires dans le traitement des plaies.

Notation des questions

Les questionnaires sont généralement utilisés pour évaluer des quantités pour lesquelles il n'existe pas de mesure objective simple. Dans le contexte d'une étude sur le traitement des plaies, il peut s'agir, par exemple, de l'évaluation par un praticien d'un nouveau matelas redistributeur de pression, ou du point de vue du patient exprimant dans quelle mesure sa plaie l'empêche d'accomplir ses tâches quotidiennes. De telles quantités ne peuvent généralement pas être regroupées dans une seule question; une série de questions, qui exploitent toutes le concept d'intérêt, peut être nécessaire. Par exemple, la connaissance de la dermatite d'une infirmière stagiaire qui a récemment suivi une session de travail sur ce sujet, ou la qualité de vie d'un patient vivant avec une plaie chronique. Généralement, ces éléments constitutifs peuvent être de type Likert ou similaire. Dans ce cas, l'intérêt est presque invariablement centré sur la notation traitée d'un ensemble de questions, et non sur chacune des questions elles-mêmes. Ainsi, alors qu'en théorie, chaque question d'un questionnaire pourrait représenter une seule mesure, le nombre de mesures distinctes saisies dans un questionnaire type est généralement bien inférieur au nombre de questions du questionnaire, plusieurs questions contribuant à l'évaluation de chaque concept.

Il est généralement souhaitable de limiter le nombre de résultats: une présentation extensive de résultats individuels sous la forme, par exemple, de diagrammes circulaires peut donner peu d'indications sur l'importance relative des différents résultats. Il existe également certains problèmes d'analyse qui peuvent rendre indésirable un grand nombre de résultats primaires. Tout comme les études qui collectent des données par d'autres moyens, le questionnaire idéal permet probablement de recueillir des informations sur un seul résultat primaire pré-spécifié et un petit nombre de résultats secondaires.

Une notation est nécessaire pour toutes les questions qui contribuent à l'évaluation d'une mesure particulière. En général, la notation des questions de Likert à 5 points est très simple - de 1 point pour "pas du tout d'accord" à 5 points pour "tout à fait d'accord", les options intermédiaires étant notées en conséquence. Les questions de Likert avec d'autres nombres d'options sont notées de la même manière. De nombreux chercheurs préfèrent utiliser un codage tel que: -2 points pour "pas du tout d'accord",-1 point pour pas d'accord et ainsi de suite jusqu'à +2 points pour "Ttut à fait d'accord", peut-être dans l'idée que les réponses formulées de manière négative nécessitent des scores négatifs. Ce codage est exactement équivalent au codage 1-5 mentionné ci-dessus – la notation pour chaque option est réduit ede 3 points pour toutes les options. Tant que cette notation est appliquée de manière cohérente, les inférences seront les mêmes dans les deux systèmes de notation.

On suppose normalement que les notations des questions sont additionnelles, c'est-à-dire qu'il est utile d'obtenir une notation globale en additionnant les notes obtenus à chacune des question qui contribue à la même mesure. Cette hypothèse est souvent plus facile à justifier s'il y a cohérence dans la formulation des questions. Il n'est pas évident de déterminer une notation globale à partir d'une série de questions dont le nombre d'options varie, par exemple, de 2 à 3, puis de 5 à 7. Les noations des questions comportant le plus grand nombre d'options supplanteront ceux des questions comportant moins de réponses si, pour chaque question, les réponses sont simplement codées comme 1 jusqu'à la valeur du nombre d'options.

Il est également plus difficile de justifier que l'addition des notations de plusieurs questions conduit à une mesure significative, même si le nombre d'options dans chaque question est le même, si les options sont différentes. Si une série de questions offre les options "pas du tout d'accord", "Pas d'accord...", "tout à fait d'accord" et qu'une autre série offre les options "pas du tout", "un peu...", "beaucoup", il peut être difficile d'arguer que les notations des deux séries de questions peuvent être combinées de manière significative.

Par exemple, si des questions de Likert en 5 points tels que "Ma plaie m'a obligé à limiter mes activités avec les autres" et "La plaie a affecté mon sommeil" sont codées à l'aide de l'échelle de 1 à 5 ci-dessus, avec 1 point pour une réponse de "pas du tout d'accord" et 5 points pour une réponse de "tout à fait d'accord", cela implique que des notes plus élevés indiquent des résultats plus mauvais. Par conséquent, si l'on souhaite inclure un élément supplémentaire dans la même échelle, tel que, par exemple, "Je suis capable d'effectuer des tâches quotidiennes sans difficulté", cet élément pourrait être codé de manière à ce que "tout à fait d'accord" reçoive 5 points, "pas du tout d'accord" 1 point, et que les autres points de l'échelle soient notés en conséquence, par souci de cohérence avec les autres éléments de l'échelle.

Piloter le questionnaire

La mise en œuvre pilote peut être un outil utile pour affiner les questions du questionnaire et peut révéler des problèmes qui pourraient avoir un impact sur le taux de réponse ultérieur et la fiabilité des réponses, comme une mauvaise clarté de la formulation des questions ou un temps excessif pour remplir le questionnaire. Si un questionnaire comprend un ensemble de questions de type Likert ou similaires conçus pour exploiter le même concept, la cohérence interne des réponses pilotes à ces questions peut être évaluée facilement et rapidement à l'aide des logiciels statistiques les plus courants. Ce processus permet d'identifier les questions qui ne sont pas traitées de la même manière que les autres questions censées mesurer le même concept, et qui peuvent donc nécessiter des modifications de leur formulation (si celle-ci n'est pas claire ou a été mal comprise par les répondants), leur suppression du questionnaire, ou éventuellement leur transfert vers la mesure d'un autre concept. La phase pilote est généralement la seule occasion d'apporter ces modifications si elles sont nécessaires.

Synthèse

Une bonne conception de questionnaire est déterminée par la question de recherche et l'analyse qui en découle. La prise en compte du point final est en fait généralement le point de départ. Les problèmes à prendre en compte comprennent la détermination des résultats à mesurer, la manière dont ils doivent être mesurés, si les résultats sont des mesures objectives qui peuvent être capturées de manière adéquate à l'aide de questions suscitant des réponses numériques simples ou des catégories, ou s'ils nécessitent des questions multiples pour recueillir une série de facettes spécifiques de la mesure.

Le ou les niveaux auxquels l'analyse doit être menée doivent également être déterminés - dans les études sur le traitement des plaies, les analyses au niveau du patient, du praticien ou de la plaie sont toutes courantes. Il faut également déterminer si les résultats doivent être liés ou non à d'autres variables et si les groupes souhaités pour la comparaison figurent dans les questions servant de variables de regroupement pour classer les unités d'analyse (patients, soignants ou plaies) de manière appropriée.

La collecte de données par questionnaire doit être abordée de la même manière que la collecte de données par le biais de dispositifs médicaux ou d'autres moyens - il est nécessaire de s'assurer que l'instrument de collecte de données est adapté à son objectif. Cela signifie qu'il faut franchir autant d'étapes que possible sur le chemin de validation (en supposant que l'on n'utilise pas un instrument pré-validé) pour s'assurer que l'on mesure les résultats que l'on pense mesurer, grâce à des questions soigneusement formulées, groupées et notées de manière appropriée. Il faut veiller à n'utiliser que le nombre de questions nécessaires pour saisir les données démographiques, les autres informations de base et les mesures des résultats. Il est nécessaire de s'assurer que les répondants constituent, dans la mesure du possible, un échantillon représentatif de la population à laquelle les généralisations doivent être étendues. Les taux de réponse sont optimisés en rendant les questions aussi claires que possible et en demandant le moins possible aux répondants en termes de temps et d'efforts nécessaires pour remplir le questionnaire, tout comme cela peut être fait en utilisant d'autres moyens de collecte de données.

Bien qu'il soit facile de sous-estimer l'effort nécessaire pour faciliter la collecte efficace de données par questionnaire, lorsqu'elle est menée correctement, la collecte de données par questionnaire peut être un moyen très efficace de collecte de données et constituer une base solide pour les études de recherche.

Conflit d'intérêt

Les auteurs ne déclarent aucun conflit d'intérêt.

Financement

Les auteurs n'ont reçu aucun financement pour cette étude.


Author(s)

John Stephenson
PHD FRSS(GradStat) CMath(MIMA)
Senior Lecturer in Biomedical Statistics
University of Huddersfield, United Kingdom
Email J.Stephenson@hud.ac.uk

References

  1. Price P, Harding K. Cardiff Wound Impact Schedule: the development of a condition-specific questionnaire to assess health-related quality of life in patients with chronic wounds of the lower limb. Int Wound J. 2004 Apr;1(1):10-17.
  2. Barakat-Johnson M, Beeckman D, Campbell J, Dunk AM, Lai M, Stephenson J, Coyer F. Development and Psychometric Testing of a Knowledge Instrument on Incontinence-Associated Dermatitis for Clinicians: The Know-IAD. J Wound Ostomy Continence Nurs. 2022 Jan-Feb 01;49(1):70-77.
  3. Brown L, Sneddon MC. Lymphoedema service provision across the UK: a national survey. J Lymphoedema. 2020;15(1):16-21.
  4. Ousey K, Stephenson J, Fleming L. Evaluating the Trezzo range of static foam surfaces: results of a comparative study. Wounds UK 2016;12(4):66-73.
  5. Dhoonmoon L. Experiences of healthcare professionals using Prontosan® debridement pad. Wounds UK 2021;17(1):118-123.